هوش مصنوعی در ارتش: حافظ صلح یا ابزار کنترل؟
به گزارش اطلس دیپلماسی، مقالهای با عنوان ژورنالیستی «هوش مصنوعی در ارتش: حافظ صلح یا ابزار کنترل؟» نوشتهی امیلیا پروباسکو (Emelia Probasco) و مینجی جانگ (Minji Jang) که در سایت وار آن راکس (War on the Rocks) منتشر شده، با بازخوانی فاجعه مای لای در جنگ ویتنام، به بررسی نقشهای ممکن فناوری هوش مصنوعی در میدانهای نبرد آینده میپردازد. نویسندگان با طرح سهگانهای مفهومی از AI بهعنوان ابزار، مربی و اجبارگر، میزان عاملیت انسانی در بهکارگیری سامانههای هوشمند را محور تحلیل خود قرار دادهاند. در ادامه چکیده این مطلب را میخوانید.
در روز ۱۶ مارس ۱۹۶۸، یکی از تاریکترین و غمانگیزترین وقایع در تاریخ نظامی آمریکا رخ داد: قتلعام مای لای. نیروهای واحد C از گردان اول، هنگ بیستم پیادهنظام که تحت فشار شدید درگیری با ویتکنگها بودند، به اشتباه به روستای مای لای حمله کردند و صدها غیرنظامی بیدفاع از جمله کودکان، زنان و سالمندان را به قتل رساندند. این رویداد که به شکلی دردناک آشکارکننده فروپاشی اخلاقی در شرایط جنگی بود، تنها با دخالت شجاعانه یک خلبان بالگرد ارتش، هیو تامپسون، بهصورت نسبی متوقف شد. هنوز هم مای لای در آکادمیهای نظامی بهعنوان نمونهای از شکست اخلاقی و عملیاتی تدریس میشود.
ما این سناریو را بازسازی کردیم تا به پرسشی آیندهنگر برسیم: آیا در آیندهای نهچندان دور، یک پهپاد هوشمند میتواند نقش انسانهایی چون هیو تامپسون را ایفا کند؟ و اگر چنین سیستمی واقعاً وجود داشته باشد، چه نوع رابطهای میان انسان و هوش مصنوعی در میدان نبرد برقرار خواهد بود؟ آیا این سیستم صرفاً یک ابزار است؟ یا مربی؟ یا شاید اجبارگری بیاحساس که خودمختار عمل میکند؟
برای پاسخ به این پرسشها، ما یک پهپاد فرضی را به تصویر کشیدیم: «Thompson Drone». این پهپاد باید بتواند میدان نبرد را زیر نظر بگیرد، رفتار نیروهای انسانی را تحلیل کند و نسبت به تخلفات اخلاقی یا نقض قوانین بینالمللی هشدار دهد. این پهپاد میتواند از هوش مصنوعی تصویری برای تشخیص غیرنظامیان استفاده کند و از طریق پیامهای متنی یا صوتی با نیروهای زمینی ارتباط برقرار نماید. حتی میتوان تصور کرد که این پهپاد توانایی تحلیل وضعیت روانی سربازان را نیز داشته باشد و در شرایط بحرانی، دستور توقف عملیات را صادر کند، همانگونه که تامپسون انسانی، با جسارت در برابر دستورات اشتباه ایستاد.
اما برخلاف یک انسان، پهپاد تامپسون فاقد احساس، شهود اخلاقی یا ترس از وجدان است. اینجا نقطه آغاز پرسش اصلی ماست: چنین سیستمی در عمل چه نقشی خواهد داشت؟ برای پاسخ، ما چارچوبی سهگانه پیشنهاد کردیم که هوش مصنوعی را در میدان نبرد در سه نقش متفاوت تصور میکند: ابزار (Tool)، مربی (Coach) و اجبارگر (Enforcer).
۱. ابزار (Tool): تابع صرف فرمان انسانی
در سادهترین و محدودترین شکل، هوش مصنوعی مانند یک ابزار سنتی عمل میکند، تنها در صورت فرمان انسان و برای اهداف مشخص. سامانههای دفاع موشکی خودکار، الگوریتمهای تشخیص هدف و پهپادهای شناسایی یا ارتباطی از این نوعاند؛ مانند چکشی که فقط زمانی عمل میکند که کسی آن را در دست بگیرد.
۲. مربی (Coach): توان توصیه، بدون اختیار تحمیل
اما اگر AI بتواند دادهها را تحلیل و پیشنهاداتی برای بهبود تصمیمگیری ارائه دهد، به نقش مربی نزدیک میشود. فرض کنیم سیستم به سربازان توصیه کند که در صورت شناسایی غیرنظامیان، آتش را متوقف کرده یا اهداف عملیات را بازبینی کنند. در این حالت، AI همچنان در حاشیه میماند اما بر فرآیند تصمیمگیری تأثیر میگذارد. ما از مثالی ساده برای تمایز استفاده کردیم: اگر زنگ هشدار فقط بیدار کند، ابزار است؛ اما اگر به شما پیشنهاد دهد شغلتان را عوض کنید، تبدیل به مربی شده است.
۳. اجبارگر (Enforcer): اختیار تحمیل، حتی تهدید به زور
در خطرناکترین و بحثبرانگیزترین سناریو، AI نهتنها هشدار میدهد بلکه اعمال قدرت هم میکند. در این نقش، پهپاد میتواند: تخلفات را گزارش کند، از فرماندهی بالا بخواهد عملیات را متوقف کند، یا حتی در حالتهای شدید، با سلاح مداخله نماید. تصور کنید پهپاد تامپسون اگر به نیروهای متخلف هشدار دهد که در صورت ادامه کشتار، وارد عمل خواهد شد، در این صورت، ما دیگر با یک مربی طرف نیستیم، بلکه با یک ناظر مقتدر و بیرحم مواجهیم.
در دل این طبقهبندی، آنچه مرز میان نقشها را تعیین میکند «میزان عاملیت انسانی (Human Agency)» است. بهبیان دیگر، آیا انسان میتواند توصیه یا دستور AI را نادیده بگیرد؟ در یکسو، اگر انسان بتواند پیام AI را خاموش، حذف یا رد کند، سیستم نقش مربی یا ابزار را دارد؛ اما اگر انسان نتواند از دستور سرپیچی کند، عاملیت به شدت محدود شده و AI تبدیل به اجبارگر میشود. این مرز البته همیشه شفاف نیست. حتی یک پیام صوتی با لحن جدی میتواند قدرت روانی زیادی داشته باشد. یا برچسبگذاری یک سیستم بهعنوان «مربی متخصص» در مقایسه با «ابزار کمکرسان» میتواند بر تصمیمگیری سرباز تأثیرگذار باشد، حتی اگر عملکرد این دو سیستم یکسان باشد.
ما بهدنبال آن نیستیم که صرفاً بهخاطر کارآمدی، به هوش مصنوعی اختیار بیشتری بدهیم. بلکه هدف ما این است که رهبران نظامی با دقت بیندیشند: آیا استفاده از AI در نقش مربی یا اجبارگر به معنای دست کشیدن از عاملیت انسانی است؟ و اگر بله آیا این بهایی است که ارزش پرداختن دارد؟ در نهایت، هم طراحان، هم فرماندهان، هم توسعهدهندگان و هم آموزگاران اخلاق باید در کنار هم بنشینند و ساختارهایی طراحی کنند که نهتنها از فجایع انسانی جلوگیری کند، بلکه کرامت تصمیمگیری انسانی در میدان نبرد را نیز محفوظ بدارد./منبع



