دستور اجرایی ترامپ در زمینه هوش مصنوعی، تلاشها برای اصلاح نژادپرستی سیستماتیک در پزشکی را تهدید میکند
به گزارش اطلس دیپلماسی، یادداشتی با عنوان « سیاست ضد بیداری هوش مصنوعی ترامپ جان بیماران را تهدید میکند» نوشته جویل برول (Joel Bervell) و منتشر شده در نشریه تایم (Time) به بررسی تهدیدات دستور اجرایی ترامپ در ارتباط با هوش مصنوعی و تبعات آن برای بهداشت و سلامت پرداخته و این سیاست را تهدیدی جدی برای تلاشهای انجام شده در جهت برابری در سیستمهای پزشکی میداند و هشدار میدهد که این اقدام ممکن است جان بیماران را به خطر بیندازد. در ادامه، چکیده این یادداشت آمده است.
در تاریخ ۲۳ ماه جولای، رئیسجمهور دونالد ترامپ دستور اجرایی گستردهای با عنوان «جلوگیری از هوش مصنوعی بیدار در دولت فدرال» امضاء کرد. این اقدام بخشی از جنگ فرهنگی سیاسی جاری است و هدف آن حذف واژههایی مانند تنوع، برابری و گنجایش « DEI » و کاهش تلاشها برای مقابله با نژادپرستی سیستماتیک در سیستمهای هوش مصنوعی فدرال است. اما برای کسانی که در حوزه پزشکی فعالیت دارند، بهویژه کسانی که بهدنبال برابری در سلامت هستند، این دستور تهدیدی برای جان انسانهاست. این دستور زندگیها را بهخطر میاندازد و سالها تلاش برای شناسایی و اصلاح تعصبات ساختاری که مدتهاست جوامع حاشیهای، بهویژه آمریکاییهای آفریقاییتبار، را آسیب زده است، به مخاطره میاندازد.
هوش مصنوعی در حال تغییر مراقبتهای بهداشتی است. این فناوری در حال حاضر برای دستهبندی بیماران در اورژانس، اولویتبندی مراقبتهای بعدی و پیشبینی خطر بیماریها استفاده میشود. اما این الگوریتمها از دادههای دنیای واقعی آموزش میبینند، دادههایی که هیچگاه بیطرف نیستند. یکی از شواهد روشن این مشکل، مطالعهای است که در سال ۲۰۱۹ در مجله (Science) منتشر شد. این مطالعه الگوریتمی را بررسی کرد که برای شناسایی بیماران نیازمند مراقبتهای ویژه طراحی شده بود.
این الگوریتم بهظاهر از دادهها استفاده میکرد، اما محققان دریافتند که این الگوریتم بهجای ارزیابی نیاز بالینی، از یک جایگزین استفاده میکرد: میزان هزینهای که قبلاً برای مراقبت از بیمار صرف شده بود. چون بیماران سیاهپوست معمولاً مراقبت کمتری دریافت میکنند، این الگوریتم نیاز آنها را بهشدت کمتر از آنچه که باید میبود، تشخیص میداد. این مسئله تنها یک مورد خاص نیست. دو الگوریتم دیگر هنوز در حال استفاده هستند که شامل تنظیمات نژادی میشوند: یکی در محاسبه عملکرد کلیهها و دیگری در تستهای عملکرد ریوی. در هر دو مورد، فرضیات نادرستی درباره ویژگیهای فیزیکی افراد سیاهپوست به کار رفته که منجر به تشخیص نادرست یا تأخیر در درمان آنها میشود.
در سالهای اخیر، برخی از محققان و پزشکان به مقابله با این مشکلات پرداختهاند. بسیاری از بیمارستانها اصلاحات نژادی را از معادلات پزشکی حذف کردهاند و ابزارهای هوش مصنوعی با تمرکز بر برابری در حال توسعه هستند. این تلاشها نه درباره « بیداری »، بلکه درباره دقت، بهبود نتایج و نجات جانهاست. دستور اجرایی ترامپ تهدیدی جدی برای این تلاشهاست. با منع نهادهای دولتی از در نظر گرفتن نژادپرستی سیستماتیک یا برابری در توسعه هوش مصنوعی، این دستور عملاً تلاشها برای اصلاح این مشکلات را غیرقانونی میکند. حامیان این دستور ادعا میکنند که هدف آن ترویج «بیطرفی» است، اما در سیستمی که بر اساس نابرابری ساخته شده، بیطرفی برابر با عدالت نیست. این دستور بهطور غیرمستقیم تعصبات موجود را تقویت میکند.
این مسئله فقط به آسیب دیدن جوامع سیاهپوست محدود نمیشود. مطالعات نشان دادهاند که سیستمهای شناسایی چهره، زنان و اقلیتهای نژادی را با نرخ بالاتری از مردان سفیدپوست شناسایی میکنند. در یکی از موارد، الگوریتمی در فرآیند استخدام، بهطور سیستماتیک رزومههای زنان را تخریب میکرد. همچنین یک ابزار بهداشتی به دلیل دادههای تاریخی نادرست، خطر بیماریهای قلبی در زنان را کمتر از آنچه که باید ارزیابی میکرد.
حذف « DEI » از هوش مصنوعی نه در جهت بیطرفی، بلکه در جهت فراموشی انتخابی است. این تلاش برای حذف زبانی است که برای تشخیص مشکل و اصلاح آن ضروری است. اگر به هوش مصنوعی اجازه دهیم که تاریخ را نادیده بگیرد، این فناوری آن را بهطور اشتباه بازنویسی میکند. دستور اجرایی ترامپ هوش مصنوعی را سیاسی و ابزار جنگی میکند و برای میلیونها آمریکایی که تاکنون از سیستمهای حقوقی، پزشکی و فناوری کنار گذاشته شدهاند، هزینه آن با جان انسانها سنجیده خواهد شد./ منبع



