وزارت امور خارجهی ایالات متحده رهنمود جدیدی برای «استفادهی نظامی مسئولانه» از هوش مصنوعی و فناوریهای خودمختار منتشر کرده است تا خواستار پیادهسازی مسئولانهی هوش مصنوعی در عملیاتهای نظامی در سراسر دنیا شود. آمریکا تأکید میکند که انسانها در صورت استفاده از هوش مصنوعی در نهادهای نظامی باید مسئولیت کامل را برعهده بگیرند.
بیانیهی وزارت امور خارجهی ایالات متحده در حالی منتشر میشود که این کشور در اجلاسی بینالمللی با تمرکز بر استفادهی مسئولانه از هوش مصنوعی نظامی حاضر شده است. این اجلاس در شهر لاههی هلند برگزار میشود. Ars Technica میگوید این نخستین باری است که شاهد برگزاری چنین اجلاسی هستیم.
بانی جنکینز، معاون وزیر خارجهی ایالات متحده در امور کنترل تسلیحات، میگوید: «ما از تمامی کشورها دعوت میکنیم که به ما در پیادهسازی هنجارهای بینالمللی مرتبط به توسعه و استفادهی نظامی از هوش مصنوعی و اسلحههای خودمختار ملحق شوند.»
ایالات متحده در بیانیهی جدیدش میگوید تعداد کشورهایی که مشغول توسعهی هوش مصنوعی نظامی هستند همواره در حال افزایش است و احتمالا این کشورها سراغ استفاده از سیستمهای خودمختار خواهند رفت. این روند باعث افزایش نگرانیها دربارهی استفادهی نامناسب از پتانسیلهای هوش مصنوعی شده است.
در بخشی از بیانیهی آمریکا میخوانیم: «نحوهی استفادهی نظامی از هوش مصنوعی بهتر است اخلاقی و مسئولیتپذیرانه باشد و امنیت بینالمللی را افزایش دهد. استفاده از هوش مصنوعی در درگیریهای مسلحانه باید با قوانین انسانی قابلاجرای بینالمللی منطبق باشد و سوگیری و حوادث ناخواسته به حداقل برسد. بهتر است دولتها تدابیر مناسبی برای اطمینان از توسعه، پیادهسازی و استفادهی مسئولانه از تواناییهای نظامی خود در حوزهی هوش مصنوعی بیندیشند.»
ایالات متحده ۱۲ شیوه برای استفادهی مناسب از هوش مصنوعی تدوین کرده است که روی مسائلی مانند ایمنی سلاحهای هستهای، طراحی مسئولانهی سیستمها و آموزش پرسنل تأکید دارند.
آمریکا به مثالهایی برای مسئولدانستن اپراتورهای انسانی در سلسلهمراتب نهادهای نظامی به هنگام استفاده از هوش مصنوعی اشاره کرده است. آمریکا میگوید که بهتر است دولتها در تمامی تصمیمات خارجی مرتبطبه سلاحهای هستهای، کنترل انسانی را در اولویت قرار دهند. آمریکا همچنین میگوید سیستمهای نظامی هوش مصنوعی باید بهگونهای طراحی شوند که «عواقب ناخواسته» به دنبال نداشته باشند. همچنین باید سازوکاری تعیین شود که بتوان در صورت بروز عواقب ناخواسته، سریعاً سیستمهای هوش مصنوعی را از دسترس خارج کرد.
بیش از ۶۰ دولت در سراسر دنیا «فراخوان برای اقدام» در حوزهی استفادهی نظامی مسئولانه از هوش مصنوعی را امضا کردهاند. متخصصان حقوق بشر و دانشگاهیان در مصاحبه با نشریهی رویترز گفتهاند بیانیهی آمریکا از لحاظ قانون هیچ الزاماتی تعیین نمیکند و در رسیدگی به نگرانیهایی مانند پهپادهای خودمختار، رباتهای قاتل و احتمال تشدید درگیری نظامی توسط هوش مصنوعی، ناتوان است.