آمریکاامنیت و دفاعخارجیفناوری و فضای مجازی

هوش مصنوعی در ارتش: حافظ صلح یا ابزار کنترل؟

به گزارش اطلس دیپلماسی، مقاله‌ای با عنوان ژورنالیستی «هوش مصنوعی در ارتش: حافظ صلح یا ابزار کنترل؟» نوشته‌ی امیلیا پروباسکو (Emelia Probasco) و مین‌جی جانگ (Minji Jang) که در سایت وار آن راکس (War on the Rocks) منتشر شده، با بازخوانی فاجعه مای لای در جنگ ویتنام، به بررسی نقش‌های ممکن فناوری هوش مصنوعی در میدان‌های نبرد آینده می‌پردازد. نویسندگان با طرح سه‌گانه‌ای مفهومی از AI به‌عنوان ابزار، مربی و اجبارگر، میزان عاملیت انسانی در به‌کارگیری سامانه‌های هوشمند را محور تحلیل خود قرار داده‌اند. در ادامه چکیده این مطلب را میخوانید.


در روز ۱۶ مارس ۱۹۶۸، یکی از تاریک‌ترین و غم‌انگیزترین وقایع در تاریخ نظامی آمریکا رخ داد: قتل‌عام مای لای. نیروهای واحد C از گردان اول، هنگ بیستم پیاده‌نظام که تحت فشار شدید درگیری با ویت‌کنگ‌ها بودند، به اشتباه به روستای مای لای حمله کردند و صدها غیرنظامی بی‌دفاع از جمله کودکان، زنان و سالمندان را به قتل رساندند. این رویداد که به شکلی دردناک آشکارکننده فروپاشی اخلاقی در شرایط جنگی بود، تنها با دخالت شجاعانه یک خلبان بالگرد ارتش، هیو تامپسون، به‌صورت نسبی متوقف شد. هنوز هم مای لای در آکادمی‌های نظامی به‌عنوان نمونه‌ای از شکست اخلاقی و عملیاتی تدریس می‌شود.

ما این سناریو را بازسازی کردیم تا به پرسشی آینده‌نگر برسیم: آیا در آینده‌ای نه‌چندان دور، یک پهپاد هوشمند می‌تواند نقش انسان‌هایی چون هیو تامپسون را ایفا کند؟ و اگر چنین سیستمی واقعاً وجود داشته باشد، چه نوع رابطه‌ای میان انسان و هوش مصنوعی در میدان نبرد برقرار خواهد بود؟ آیا این سیستم صرفاً یک ابزار است؟ یا مربی؟ یا شاید اجبارگری بی‌احساس که خودمختار عمل می‌کند؟

برای پاسخ به این پرسش‌ها، ما یک پهپاد فرضی را به تصویر کشیدیم: «Thompson Drone». این پهپاد باید بتواند میدان نبرد را زیر نظر بگیرد، رفتار نیروهای انسانی را تحلیل کند و نسبت به تخلفات اخلاقی یا نقض قوانین بین‌المللی هشدار دهد. این پهپاد می‌تواند از هوش مصنوعی تصویری برای تشخیص غیرنظامیان استفاده کند و از طریق پیام‌های متنی یا صوتی با نیروهای زمینی ارتباط برقرار نماید. حتی می‌توان تصور کرد که این پهپاد توانایی تحلیل وضعیت روانی سربازان را نیز داشته باشد و در شرایط بحرانی، دستور توقف عملیات را صادر کند، همان‌گونه که تامپسون انسانی، با جسارت در برابر دستورات اشتباه ایستاد.

اما برخلاف یک انسان، پهپاد تامپسون فاقد احساس، شهود اخلاقی یا ترس از وجدان است. اینجا نقطه آغاز پرسش اصلی ماست: چنین سیستمی در عمل چه نقشی خواهد داشت؟ برای پاسخ، ما چارچوبی سه‌گانه پیشنهاد کردیم که هوش مصنوعی را در میدان نبرد در سه نقش متفاوت تصور می‌کند: ابزار (Tool)، مربی (Coach) و اجبارگر (Enforcer).

۱. ابزار (Tool): تابع صرف فرمان انسانی

در ساده‌ترین و محدودترین شکل، هوش مصنوعی مانند یک ابزار سنتی عمل می‌کند، تنها در صورت فرمان انسان و برای اهداف مشخص. سامانه‌های دفاع موشکی خودکار، الگوریتم‌های تشخیص هدف و پهپادهای شناسایی یا ارتباطی از این نوع‌اند؛ مانند چکشی که فقط زمانی عمل می‌کند که کسی آن را در دست بگیرد.

۲. مربی (Coach): توان توصیه، بدون اختیار تحمیل

اما اگر AI بتواند داده‌ها را تحلیل و پیشنهاداتی برای بهبود تصمیم‌گیری ارائه دهد، به نقش مربی نزدیک می‌شود. فرض کنیم سیستم به سربازان توصیه کند که در صورت شناسایی غیرنظامیان، آتش را متوقف کرده یا اهداف عملیات را بازبینی کنند. در این حالت، AI همچنان در حاشیه می‌ماند اما بر فرآیند تصمیم‌گیری تأثیر می‌گذارد. ما از مثالی ساده برای تمایز استفاده کردیم: اگر زنگ هشدار فقط بیدار کند، ابزار است؛ اما اگر به شما پیشنهاد دهد شغل‌تان را عوض کنید، تبدیل به مربی شده است.

۳. اجبارگر (Enforcer): اختیار تحمیل، حتی تهدید به زور

در خطرناک‌ترین و بحث‌برانگیزترین سناریو، AI نه‌تنها هشدار می‌دهد بلکه اعمال قدرت هم می‌کند. در این نقش، پهپاد می‌تواند: تخلفات را گزارش کند، از فرماندهی بالا بخواهد عملیات را متوقف کند، یا حتی در حالت‌های شدید، با سلاح مداخله نماید. تصور کنید پهپاد تامپسون اگر به نیروهای متخلف هشدار دهد که در صورت ادامه کشتار، وارد عمل خواهد شد، در این‌ صورت، ما دیگر با یک مربی طرف نیستیم، بلکه با یک ناظر مقتدر و بی‌رحم مواجهیم.

در دل این طبقه‌بندی، آن‌چه مرز میان نقش‌ها را تعیین می‌کند «میزان عاملیت انسانی (Human Agency)» است. به‌بیان دیگر، آیا انسان می‌تواند توصیه یا دستور AI را نادیده بگیرد؟ در یک‌سو، اگر انسان بتواند پیام AI را خاموش، حذف یا رد کند، سیستم نقش مربی یا ابزار را دارد؛ اما اگر انسان نتواند از دستور سرپیچی کند، عاملیت به شدت محدود شده و AI تبدیل به اجبارگر می‌شود. این مرز البته همیشه شفاف نیست. حتی یک پیام صوتی با لحن جدی می‌تواند قدرت روانی زیادی داشته باشد. یا برچسب‌گذاری یک سیستم به‌عنوان «مربی متخصص» در مقایسه با «ابزار کمک‌رسان» می‌تواند بر تصمیم‌گیری سرباز تأثیرگذار باشد،‌ حتی اگر عملکرد این دو سیستم یکسان باشد.

ما به‌دنبال آن نیستیم که صرفاً به‌خاطر کارآمدی، به هوش مصنوعی اختیار بیشتری بدهیم. بلکه هدف ما این است که رهبران نظامی با دقت بیندیشند: آیا استفاده از AI در نقش مربی یا اجبارگر به معنای دست کشیدن از عاملیت انسانی است؟ و اگر بله آیا این بهایی است که ارزش پرداختن دارد؟ در نهایت، هم طراحان، هم فرماندهان، هم توسعه‌دهندگان و هم آموزگاران اخلاق باید در کنار هم بنشینند و ساختارهایی طراحی کنند که نه‌تنها از فجایع انسانی جلوگیری کند، بلکه کرامت تصمیم‌گیری انسانی در میدان نبرد را نیز محفوظ بدارد./منبع

نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا