آسیاآمریکاامنیت و دفاعفناوری و فضای مجازی

جعل عمیق چگونه می‌تواند جهان را به آستانۀ فاجعه نهایی بکشاند

سامانه‌های هشدار هسته‌ای آمریکا برای عصر هوش مصنوعی آماده نیستند.

به گزارش اطلس دیپلماسی، مقاله‌ای با عنوان «جعل عمیق چگونه می‌تواند جهان را به آستانۀ فاجعه نهایی بکشاند» به قلم ارین دی. دامباکر (Erin D. Dumbacher) در فارن افرز (Foreign Affairs) منتشر شده است. این مقاله به بررسی خطرات بی‌سابقه ادغام هوش مصنوعی در سامانه‌های فرماندهی هسته‌ای و احتمال وقوع جنگ هسته‌ای بر اثر اطلاعات نادرست می‌پردازد. در ادامه، چکیده مطلب آمده است.

استقرار هوش مصنوعی در ساختار امنیت ملی ایالات متحده در سال ۲۰۲۵ شتابی خیره‌کننده یافته است. طرح اقدام هوش مصنوعی ترامپ که در جولای ۲۰۲۵ منتشر شد، خواستار استفاده «تهاجمی» از این فناوری در سراسر وزارت دفاع (یا طبق تغییر نام اخیر، وزارت جنگ) شده است. اگرچه دولت آمریکا بر حفظ «انسان در چرخه» (Human in the loop) برای تصمیم‌گیری‌های نهایی تأکید دارد، اما خطر اصلی نه در سپردن ماشه به دست ماشین، بلکه در فریب‌خوردن انسان تصمیم‌گیرنده توسط جعل عمیق نهفته است. در دنیایی که رهبران تنها چند دقیقه (حدود ۳۰ دقیقه برای موشک‌های قاره‌پیمای آمریکا و کمتر از آن برای روسیه) فرصت دارند تا صحت یک حمله را بررسی کنند، تماشای یک ویدیوی جعل عمیق (Deep Fake) از رهبر دشمن که فرمان حمله صادر می‌کند، می‌تواند به‌سادگی منجر به یک ضدحمله هسته‌ای فاجعه‌بار شود. این سناریو زمانی خطرناک‌تر می‌شود که بدانیم دونالد ترامپ و مشارانش به‌طور مکرر از شبکه‌های اجتماعی برای دریافت و بازنشر اطلاعات استفاده می‌کنند، جایی که جعل عمیق به وفور یافت می‌شود.

وزارت دفاع آمریکا در دسامبر سال ۲۰۲۵ از بستر GenAI.mil رونمایی کرد که ابزارهای هوش مصنوعی پیشرفته‌ای نظیر «Gemini for Government» و به‌زودی «xAI» را در اختیار کارکنان پنتاگون قرار می‌دهد. در حالی که این ابزارها برای افزایش بهره‌وری و تحلیل داده‌ها طراحی شده‌اند، باید نسبت به «توهمات هوش مصنوعی» و جعل هویت مراقب بود. به‌دلیل فقدان مجموعه‌داده‌های جامع از حملات هسته‌ای واقعی، سامانه‌های هوش مصنوعی برای تشخیص تهدیدات ممکن است به داده‌های مصنوعی تکیه کنند که ضریب خطا را بالا می‌برد. از سوی دیگر، تحقیقات نشان می‌دهد که اپراتورهای انسانی تمایل دارند به خروجی‌های ماشین بیش از حد اعتماد کنند. در شرایط بحرانی، این «سوگیری اعتماد» می‌تواند باعث شود که هشدارهای کاذب تولیدشده توسط هوش مصنوعی، واقعی تلقی شده و زنجیره‌ای از حوادث را آغاز کند که پایان آن نابودی تمدن بشری است.

با ورود به سال ۲۰۲۶، ضرورت ایجاد استانداردهای سختگیرانه برای «رهگیری منشأ اطلاعات»  در آژانس‌های اطلاعاتی بیش از هر زمان دیگری احساس می‌شود. اگرچه توافق غیرالزام‌آوری بین بایدن و شی جین‌پینگ در اواخر ۲۰۲۴ مبنی بر عدم سپردن تصمیمات هسته‌ای به هوش مصنوعی منعقد شد، اما واقعیت این است که زیرساخت‌های فرماندهی و کنترل (NC3) به‌سرعت در حال خودکارسازی هستند. ایالات متحده باید سرعت را فدای دقت کرده و فرآیندهای راستی‌آزمایی را، حتی به قیمت از دست دادن زمان در دکترین «شلیک در صورت هشدار»، تقویت کند. همچنین، ایجاد کانال‌های ارتباطی بحرانی (خطوط داغ) مستقیم بین واشنگتن و پکن، مشابه آنچه با مسکو وجود دارد، برای خنثی‌سازی اثر اطلاعات جعلی حیاتی است. تا زمانی که مهندسان نتوانند راه‌حلی قطعی برای نفوذ جعل عمیق به سامانه‌های نظامی بیابند، نظارت انسانی شکاک و آموزش‌دیده، تنها مانع در برابر «فاجعه نهایی» دیجیتال خواهد بود./ منبع

نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا