جدیدترین بهروزرسانی رهنمود وزارت دفاع ایالات متحده نشان میدهد ارتش این کشور بهدنبال توسعه و استفادهی گستردهتر از سلاح خودمختار است. این نخستینبار در یک دههی اخیر است که رهنمود وزارت دفاع آمریکا بهروزرسانی میشود. تغییرات جدید بهطورویژه روی سلاحهایی تمرکز دارند که مبتنیبر هوش مصنوعی هستند.
سال گذشتهی میلادی، ناتو برنامهی مشابهی تدوین کرد که بهدنبال حفظ برتری تکنولوژیکی این سازمان در حوزهای است که غالباً از آن بهعنوان «رباتهای قاتل» یاد میشود. هر دو بیانیهی وزارت دفاع آمریکا و ناتو منعکسکنندهی درس مهمی هستند که ارتشهای مختلف در سراسر دنیا از عملیات نظامی در اوکراین و قرهباغ یاد گرفتهاند: هوش مصنوعی تسلیحاتی آیندهی جنگها را شکل میدهد.
ریچارد مویس، مدیر سازمان Article 36، روی کاهش تلفات ناشی از سلاحهای نظامی تمرکز دارد. وی در مصاحبه با گیزمودو گفت: «میدانیم که فرماندهان در جنگافزارهای پرسهزن ارزش نظامی میبینند.» این جنگافزارها که ترکیبی از بمب و پهپاد هستند، میتوانند برای مدتزمانی طولانی شناور باشند و منتظر هدف بمانند.
مویس میگوید درحالحاضر، اپراتورهای انسانی موشکهای نیمهخودمختار را تا حد زیادی کنترل میکنند. درواقع، انسان حتی در همین موشکها نیز تصمیمهای مهمی را میگیرد؛ اما با افزایش تلفات در جنگ اوکراین، فشار برای دستیابی به سلاحهای کاملاً خودمختار افزایش یافته است؛ رباتهایی که میتوانند هدف را انتخاب و به آن حمله کنند، بدون اینکه به دخالت انسان نیاز باشد.
ماه گذشته، یکی از شرکتهای مهم در روسیه از برنامههایی پرده برداشت که برای تولید نسخهی نظامی ربات Marker دارد. این وسیلهی نقلیهی بدون سرنشین قرار است به پیادهنظام روسیه در خاک اوکراین کمک کند. درحالحاضر، از پهپادهای کاملاً خودمختار برای محافظت از تأسیسات انرژی اوکراین دربرابر پهپادهای دیگر استفاده میشود.
وحید نوابی، مدیرعامل AeroVironment، یکی از پیمانکاران وزارت دفاع آمریکا و سازندهی پهپادهای نیمهخودمختار Switchblade، میگوید امروزه به فناوریهایی دسترسی داریم که میتوانند این نوع پهپادها را کاملاً خودمختار کنند.
مایکیلو فدروف، وزیر تحول دیجیتال اوکراین، میگوید سلاحهای کاملاً خودمختار قدم منطقی و اجتنابناپذیر بعدی در حوزهی جنگ هستند. او اخیراً گفته بود که احتمالاً سربازان در ۶ ماه آینده، این سلاحها را در میدان جنگ خواهند دید.
طرفداران سیستمهای تسلیحاتی کاملاً خودمختار میگویند این فناوری باعث میشود سربازان در میدان جنگ از خطرهای اصلی دور باشند. همچنین، این سیستمها باعث میشوند که بتوان تصمیمات مهم نظامی را خیلی سریع گرفت تا توان دفاعی بهطوراساسی بهبود پیدا کند.
درحالحاضر، سلاحهای نیمهخودمختار نظیر جنگافزارهای پرسهزن که اهداف را دنبال میکنند و در نزدیکی آنها منفجر میشوند، نیازمند ناظر انسانی هستند. این جنگافزارها میتوانند انجام عملیاتی خاص را پیشنهاد دهند؛ اما تا زمانیکه اپراتور انسانی تصمیم نگیرد، دست به هیچ کاری نمیزنند.
در مقام مقایسه، پهپادهای کاملاً خودمختار نظیر آنچه متخصصان نظامی «شکارچیان پهپاد» خطاب میکنند و در اوکراین حضور دارند، میتوانند ۲۴ ساعته وسایل نقلیهی هوایی بدون سرنشین را رهگیری و غیرفعال کنند. این پهپادها برای انجام عملیات به دخالت مستقیم انسان نیاز ندارند و سریعتر از انسان کارها را انجام میدهند.
علاوهبراین، منتقدان توصیه کردهاند که تحقیقوتوسعهی سیستمهای تسلیحاتی خودمختار بهمدت بیش از یک دهه ممنوع شود. آنان به آیندهای اشاره میکنند که سلاحهای خودمختار برای هدف قراردادن انسان و نهفقط وسایل نقلیه ساخته میشوند.
منتقدان میگویند که انسان باید دربارهی مرگ و زندگی در دوران جنگ تصمیمگیری کند، نه رباتهای مبتنیبر هوش مصنوعی. ارائهی این تصمیم مهم به الگوریتمهای نرمافزاری، نمونهی بارز «انسانزدایی دیجیتالی» است.
رهبران پویش جلوگیری از رباتهای قاتل بههمراه دیدهبان حقوق بشر در تلاشاند تا از ساخت سلاحهای کاملاً خودمختار را جلوگیری کنند. آنان میگویند سیستمهای تسلیحاتی خودمختار از قضاوت صحیح انسانی برای متمایزکردن هدفهای نظامی از افراد غیرنظامی بیبهره هستند. این سیستمها آستانهی جنگ را کاهش میدهند و کنترل معنادار انسان بر اتفاقات میدان نبرد را از بین میبرند.
دیدهبان حقوق بشر میگوید ارتشهایی نظیر آمریکا، روسیه، چین، کرهجنوبی و اتحادیهی اروپا که بیشترین سرمایهگذاری را روی سیستمهای تسلیحاتی خودمختار انجام میدهند، جهان را وارد مسابقهی تسلیحاتی جدیدی میکنند که پرهزینه و بیثبات است. یکی از عواقب احتمالی این است که فناوریهای پیشرفتهی استفادهشده در سلاحهای خودمختار بهدست تروریستها بیفتد.
نسخهی جدید رهنمود وزارت دفاع آمریکا در تلاش است تا به بخشی از نگرانیها رسیدگی کند. در این رهنمود، بهصراحت اعلام شده است که ایالات متحده از سیستمهای نظامی خودمختاری استفاده میکند که «سطح مناسبی از قضاوت انسانی» دارند. دیدهبان حقوق بشر در بیانیهای میگوید آمریکا بهطورمشخص نگفته که «سطح مناسب» به چه معنا است و تعیین نکرده که این سطح مناسب را چه کسانی مشخص میکنند.
وزارت دفاع ایالات متحده روی استفادهی نظامی مسئولانه و اخلاقی از سیستمهای تسلیحاتی خودمختار نیز تأکید کرده است. آمریکا گفته است این نوع تسلیحات با رعایت قوانین بینالمللی جنگ استفاده خواهند شد. ریچارد مویس میگوید قوانین بینالمللی جنگ درحالحاضر چهارچوب مشخصی برای درک مفهوم سلاحهای خودمختار ندارند.
کمیتهی بینالمللی صلیب سرخ میگوید که تعهدات قانونی فرماندهان و اپراتورهای انسانی را نمیتوان به ماشین یا الگوریتم یا سیستم تسلیحاتی منتقل کرد. درحالحاضر، انسانها مسئول حفاظت از غیرنظامیان و محدودسازی خسارات جنگی هستند؛ اما اگر رباتهای قاتل مرتکب اشتباه شوند، چه کسی پاسخگو خواهد بود؟