جعل عمیق چگونه میتواند جهان را به آستانۀ فاجعه نهایی بکشاند
سامانههای هشدار هستهای آمریکا برای عصر هوش مصنوعی آماده نیستند.
به گزارش اطلس دیپلماسی، مقالهای با عنوان «جعل عمیق چگونه میتواند جهان را به آستانۀ فاجعه نهایی بکشاند» به قلم ارین دی. دامباکر (Erin D. Dumbacher) در فارن افرز (Foreign Affairs) منتشر شده است. این مقاله به بررسی خطرات بیسابقه ادغام هوش مصنوعی در سامانههای فرماندهی هستهای و احتمال وقوع جنگ هستهای بر اثر اطلاعات نادرست میپردازد. در ادامه، چکیده مطلب آمده است.
استقرار هوش مصنوعی در ساختار امنیت ملی ایالات متحده در سال ۲۰۲۵ شتابی خیرهکننده یافته است. طرح اقدام هوش مصنوعی ترامپ که در جولای ۲۰۲۵ منتشر شد، خواستار استفاده «تهاجمی» از این فناوری در سراسر وزارت دفاع (یا طبق تغییر نام اخیر، وزارت جنگ) شده است. اگرچه دولت آمریکا بر حفظ «انسان در چرخه» (Human in the loop) برای تصمیمگیریهای نهایی تأکید دارد، اما خطر اصلی نه در سپردن ماشه به دست ماشین، بلکه در فریبخوردن انسان تصمیمگیرنده توسط جعل عمیق نهفته است. در دنیایی که رهبران تنها چند دقیقه (حدود ۳۰ دقیقه برای موشکهای قارهپیمای آمریکا و کمتر از آن برای روسیه) فرصت دارند تا صحت یک حمله را بررسی کنند، تماشای یک ویدیوی جعل عمیق (Deep Fake) از رهبر دشمن که فرمان حمله صادر میکند، میتواند بهسادگی منجر به یک ضدحمله هستهای فاجعهبار شود. این سناریو زمانی خطرناکتر میشود که بدانیم دونالد ترامپ و مشارانش بهطور مکرر از شبکههای اجتماعی برای دریافت و بازنشر اطلاعات استفاده میکنند، جایی که جعل عمیق به وفور یافت میشود.
وزارت دفاع آمریکا در دسامبر سال ۲۰۲۵ از بستر GenAI.mil رونمایی کرد که ابزارهای هوش مصنوعی پیشرفتهای نظیر «Gemini for Government» و بهزودی «xAI» را در اختیار کارکنان پنتاگون قرار میدهد. در حالی که این ابزارها برای افزایش بهرهوری و تحلیل دادهها طراحی شدهاند، باید نسبت به «توهمات هوش مصنوعی» و جعل هویت مراقب بود. بهدلیل فقدان مجموعهدادههای جامع از حملات هستهای واقعی، سامانههای هوش مصنوعی برای تشخیص تهدیدات ممکن است به دادههای مصنوعی تکیه کنند که ضریب خطا را بالا میبرد. از سوی دیگر، تحقیقات نشان میدهد که اپراتورهای انسانی تمایل دارند به خروجیهای ماشین بیش از حد اعتماد کنند. در شرایط بحرانی، این «سوگیری اعتماد» میتواند باعث شود که هشدارهای کاذب تولیدشده توسط هوش مصنوعی، واقعی تلقی شده و زنجیرهای از حوادث را آغاز کند که پایان آن نابودی تمدن بشری است.
با ورود به سال ۲۰۲۶، ضرورت ایجاد استانداردهای سختگیرانه برای «رهگیری منشأ اطلاعات» در آژانسهای اطلاعاتی بیش از هر زمان دیگری احساس میشود. اگرچه توافق غیرالزامآوری بین بایدن و شی جینپینگ در اواخر ۲۰۲۴ مبنی بر عدم سپردن تصمیمات هستهای به هوش مصنوعی منعقد شد، اما واقعیت این است که زیرساختهای فرماندهی و کنترل (NC3) بهسرعت در حال خودکارسازی هستند. ایالات متحده باید سرعت را فدای دقت کرده و فرآیندهای راستیآزمایی را، حتی به قیمت از دست دادن زمان در دکترین «شلیک در صورت هشدار»، تقویت کند. همچنین، ایجاد کانالهای ارتباطی بحرانی (خطوط داغ) مستقیم بین واشنگتن و پکن، مشابه آنچه با مسکو وجود دارد، برای خنثیسازی اثر اطلاعات جعلی حیاتی است. تا زمانی که مهندسان نتوانند راهحلی قطعی برای نفوذ جعل عمیق به سامانههای نظامی بیابند، نظارت انسانی شکاک و آموزشدیده، تنها مانع در برابر «فاجعه نهایی» دیجیتال خواهد بود./ منبع



