پلاس وی
2 سال پیش / خواندن دقیقه

جنگ‌افزارهای خودمختار؛ کابوسی از جنس هوش مصنوعی و در آستانه تحقق

جنگ‌افزارهای خودمختار؛ کابوسی از جنس هوش مصنوعی و در آستانه تحقق

درحالیکه اکثر ما سرمان به ChatGPT گرم بود، عده‌ای داشتند به‌طور جدی به استفاده از هوش مصنوعی در تجهیزات نظامی فکر می‌کردند.

تا چند وقت پیش می‌خواستم درباره‌ی جنگ شرکت‌های بزرگ تکنولوژی بر سر موتورهای جستجوی مبتنی‌بر هوش مصنوعی بنویسم؛ اما حالا دارم درباره‌ی جنگ‌های واقعی و سلاح‌های جنگی مبتنی‌بر هوش مصنوعی می‌نویسم.

من معمولا از آن مدل افرادی هستم که دید خوش‌بینانه‌ای به آینده‌ی تکنولوژی دارند و با هیجان و اشتیاق، پیشرفت‌های این حوزه را دنبال می‌کنند. اما راستش را بخواهید، چند وقتی است که تیتر اخبار مربوط به استفاده از سیستم‌های هوش مصنوعی در جنگ مرا نگران کرده است.

جت جنگنده ارتش آمریکا ۱۷ ساعت با هوش مصنوعی پرواز کرد. سربازان ارتش استرالیا، سگ‌های رباتیک را با ذهن کنترل می‌کنند. ویدیوی وایرال‌شده تمرین نظامی رباتی چهارپا که اسلحه‌ی گرم با خود حمل می‌کند و قدرت کشتار بالایی دارد. ارتش فرانسه در تمرینات نظامی از ربات چهارپای شرکت بوستون داینامیکس استفاده می‌کند. ویدیویی از شنا سوئدی هماهنگ ده‌ها ربات چهارپای چینی.

این‌ها فقط چند نمونه از اخباری است که در چند ماه گذشته، توجه را به وجه تاریک‌تر و ترسناک‌تر سیستم‌های هوش مصنوعی جلب کرده است؛ درحالی‌که اکثر ما سرمان به ChatGPT گرم بود تا تکالیف مدرسه‌مان را انجام دهد یا به سوال‌هایمان درباره قدرت خرید آیفون در ایران جواب دهد، عده‌ی دیگری داشتند به‌طور جدی به استفاده از تکنولوژی هوش مصنوعی برای مصارف نظامی فکر می‌کردند.

در بین انبوه اخبار مربوط به استفاده‌ی نظامی از هوش مصنوعی، دو مورد بیشتر از همه نظر مرا به‌ خود جلب کرد؛ اولی، گفت‌وگوی وایرد با اریک اشمیت، مدیرعامل سابق گوگل و دومی، کنفرانسی در لاهه با حضور نمایندگان بیش از ۶۰ کشور پیرامون استفاده‌ی مسئولانه از هوش مصنوعی در تجهیزات نظامی بود که چند روز پیش، همزمان با انتشار رهنمود جدیدی برای «استفاده‌ی نظامی مسئولانه» از هوش مصنوعی و فناوری‌های خودمختار توسط آمریکا برگزار شد.

اریک اشمیت؛ مهره اصلی پیشرفت‌های هوش‌مصنوعی پنتاگون؟

گفت‌وگوی وایرد با اشمیت با این تیتر و لید ترسناک شروع می‌شود:

اریک اشمیت دارد ماشین جنگی هوش مصنوعی تمام‌عیاری می‌سازد

مدیرعامل سابق گوگل در تلاش است ارتش آمریکا را به هوش مصنوعی پیشرفته، مجهز کند تا به مقابله با چین برود. آیا این جهان را امن‌تر می‌کند؟

و بعد،‌ درباره‌ی نیاز به مجهز کردن هرچه‌زودتر بخش نظامی آمریکا به سیستم‌های خودمختار و تأثیر هوش مصنوعی بر جنگ مشابه دورانی که سلاح هسته‌ای معرفی شد، صحبت شد.

حسی به من می‌گوید در چند ماه آینده، نام اریک اشمیت را زیاد خواهیم شنید. اشمیت در سال ۲۰۰۱ مدیرعامل گوگل شد؛ یعنی درست زمانی که موتور جستجوی گوگل تنها چندصد کارمند داشت و به‌زحمت پول درمی‌آورد. زمانی که اشمیت در سال ۲۰۱۷ از سمت خود کناره‌گیری کرد، آلفابت (شرکت مادر گوگل) به شرکت به‌شدت پولسازی با چندین پروژه‌ی مهم ازجمله هوش مصنوعی پیشرفته، خودروهای خودران و کامپیوترهای کوانتومی تبدیل شده بود.

اما یک سال پیش از آنکه اشمیت، آلفابت را ترک کند، از پنتاگون بازدید کرد تا از نزدیک در جریان وضعیت تکنولوژی بخش نظامی آمریکا قرار بگیرد. او درحالی‌که هنوز مدیر اجرایی آلفابت بود، دعوت اشتون کارتر، وزیر دفاع دولت اوباما را برای ریاست هیئت نوآوری دفاعی جدیدی که در تلاش برای مدرن‌سازی وزارت دفاع آمریکا بود، پذیرفت.

اشمیت در سال ۲۰۱۹ رئیس کمیسیون امنیت ملی ایالات متحده در زمینه هوش مصنوعی (NSCAI) شد که مسئولیتش بررسی تأثیر هوش مصنوعی بر امنیت و توان رقابتی آمریکا بود. گزارش نهایی این کمیسیون که در سال ۲۰۲۱ منتشر شد، بر رقابت هوش مصنوعی بین آمریکا و چین تمرکز داشت و هشدار داد که اگر آمریکا و جامعه‌ی جهانی به خودش نیاید، برخی از کشورها ممکن است از این تکنولوژی برای گسترش ارزش‌های استبدادی استفاده کنند. این گزارش همچنین از دولت آمریکا خواست که بیشتر با بخش خصوصی همکاری کند و برای پروژه‌های هوش مصنوعی بخش دولتی و خصوصی، بودجه، داده و توان رایانشی فراهم کند.

در رویدادی در پاییز ۲۰۲۲، اشمیت اعتراف کرد که کمیسیون NSCAI با آگاه کردن او از تهدیدات چین علیه آمریکا، مسیر زندگی‌اش را عوض کرده است. او گفت:

اشمیت در این مصاحبه‌ی تامل‌برانگیز گفت ایالات متحده به کمک هوش مصنوعی، می‌تواند فاصله‌ی نظامی خود را با چین افزایش دهد و اینکه باید از جنگ بین روسیه و اوکراین درس بگیرد. اشمیت به این اشاره کرد که ارتش اوکراین از‌طریق بهره‌گیری از فناوری‌های توسعه‌داده‌شده‌ی بخش خصوصی توانسته درمقابل حمله‌ی روسیه مقاومت کند: ازجمله تبدیل پهپادهای تجاری به سلاح نظامی، تغییر کاربری سیستم‌های ارتباطی منسوخ شده‌، چاپ سه‌بعدی قطعات کم‌یاب و توسعه‌ی نرم‌افزار جدیدی برای مدیریت دستمزدهای نظامی که کار چند سال را به چند ماه تبدیل کرده است.

اشمیت از این شاکی بود که پنتاگون قوانین سخت‌گیرانه‌ای برای استفاده از تکنولوژی روز دارد و انتخاب و خرید نرم‌افزار توسط وزارت دفاع آمریکا ممکن است سال‌ها طول بکشد. او گفت چالش اصلی آمریکا این است که چقدر سریع‌تر از رقبا می‌تواند از تکنولوژی‌های تجاری برای مصارف نظامی استفاده کند.

اشمیت پس از ربط دادن توسعه سیستم جنگ‌افزاری بهتر به حوزه تکنولوژی، تصویر هولناکی از اینترنت اشیا ترسیم کرد که البته از نظر او، اتفاق بسیار هیجان‌انگیزی است.

اشمیت هنوز حدود ۵ میلیارد دلار در آلفابت سهام دارد، سرمایه‌گذار استارتاپ پیمانکار نظامی Rebellion Defense است و از طریق شرکت‌های سرمایه‌گذاری مختلف با سایر شرکت‌هایی که با دولت کار می‌کنند، ارتباط دارد.

با این اوصاف، به سختی می‌توانید فرد دیگری را با همین سطح نفوذ در بخش تکنولوژی امنیت ملی پیدا کنید. به‌گفته‌ی وایرد، هر پیشرفتی که پنتاگون در زمینه تحقق رویاهای هوش مصنوعی‌اش به دست آورد و تاثیر این رویاها بر دنیا هرچه باشد، می‌توان پیش‌بینی کرد که اشمیت به احتمال زیاد در مرکز تمام این اتفاق‌ها خواهد بود.

اشمیت در این گفت‌وگو، همچنین به استارتاپی به نام Istari اشاره کرد که از فناوری یادگیری ماشین و متاورس برای مونتاژ و آزمایش مجازی وسایل نقلیه‌ی نظامی مثل تانک استفاده می‌کند. شاید فعالیت این استارتاپ که از سرمایه‌گذاری اشمیت برخوردار است، به نظر کسل‌کننده برسد، اما او می‌گوید همین‌ فعالیت‌ها می‌تواند نوآوری‌های صنعت تکنولوژی را به بخش نظامی آمریکا بیاورد.

اما Istari تنها یک قطعه‌ی کوچک از پروژه‌ی بسیار بزرگی است که در آن اشمیت سعی دارد ارتش آمریکا را با تکنولوژی و طرز فکر سیلکون‌ولی همراه کند.

سال گذشته، پنتاگون کریگ مارتل، پژوهشگر ارشد هوش مصنوعی و یادگیری ماشین دراپ‌باکس، لیفت و لینکدین را به‌عنوان رییس هوش مصنوعی این وزارتخانه منصوب کرد. مارتل هم دقیقا طرز تفکر اشمیت را داشت. او پس از تصدی پست جدید به بلومبرگ گفت که می‌خواهد پنتاگون را از «بی‌تحرکی بوروکراتیک» خود خارج کند و معتقد بود بخش نظامی آمریکا با سرعت به‌شدت آهسته‌ای به سمت هوش مصنوعی در حرکت است و این موضوع باید تغییر کند.

کمیسیون NSCAI هم اگرچه منحل شده، اشمیت اکنون در نهادی مشابه که پیامدهای پیشرفت در حوزه‌ی بیوتکنولوژی را بررسی می‌کند، مشغول به کار است. اشمیت همچنین اندیشکده‌ی جدید و مستقلی به نام «پروژه مطالعات رقابتی ویژه» (SCSP) را تأمین مالی کرده که به فناوری‌هایی فراتر از هوش مصنوعی از جمله همجوشی هسته‌ای، رایانش کوانتومی و ارتباطات و ویرایش ژن نگاه می‌کند و حوزه‌ی فعالیت‌هایش چیزی شبیه پروژه‌های ضد شوروی آمریکا در دوران جنگ سرد است.

قانون CHIPS نیز که تابستان امسال با حمایت دو حزبی و با انگیزه‌ی نگرانی‌ از پیشروی چین در صنعت تراشه تصویب شد، دولت آمریکا را متعهد می‌کند که در ۱۰ سال آینده، ۲۰۰ میلیارد دلار برای تحقیق و ساخت قطعات نیمه‌هادی در اختیار شرکت‌های آمریکایی از جمله اینتل و AMD قرار دهد.

طبق پیش‌بینی وال استریت، بزرگ‌ترین برنده‌های رقابت هوش مصنوعی، شرکت‌هایی خواهند بود که «اسلحه‌هایی» درست می‌کنند که توسط تمام رقبا استفاده خواهد شد؛ که منظور پردازنده‌های گرافیکی قدرتمندی است که برای سیستم‌های هوش مصنوعی مولد مثل چت‌بات ChatGPT و سیستم‌های مولد تصویری مثل Dall-E و میدجرنی استفاده می‌شود.

سلاح‌های خودمختار جنگی؛ نگرانی اصلی ورود هوش مصنوعی به بخش نظامی

اما از همه‌ی این حرف‌ها گذشته، چیزی که مرا بیش از هرچیز نگران می‌کند، رویکرد بی‌دغدغه‌ و بی‌خیال اشمیت به مقوله‌ای است که چند سال پیش گروه بزرگی از دانشمندان و افراد سرشناس حوزه‌ی هوش مصنوعی، درباره‌ی آن هشدار جدی داده بودند: سلاح‌های خودمختار جنگی.

اشمیت در مصاحبه با وایرد گفت:

سال ۲۰۱۵، گروه بزرگی از دانشمندان و افراد سرشناس از جمله استیون هاوکینگ، استیو وازنیک، ایلان ماسک و جمعی از پژوهشگران حوزه‌ی هوش مصنوعی در نامه‌ای سرگشاده از دولت‌ها خواستند توسعه‌ی «سلاح‌های خودمختار جنگی» را ممنوع کنند تا از «مسابقه‌ی تسلیحاتی هوش‌ مصنوعی با کاربرد نظامی» جلوگیری شود.

در این نامه که به امضای بیش از ۳۴ هزار نفر رسیده بود، تمرکز بیشتر روی ربات‌ها و تجهیزاتی بود که ممکن بود در آینده به چنان سطح از هوشمندی برسند که بخواهند خودمختار شوند و با تصمیم خود و بدون دخالت انسانی، به اهداف شلیک کنند؛ چیزی شبیه همان ربات چهارپایی که با اسلحه گرم، به سیبل تیراندازی، شلیک می‌کرد و حتی شاید همان «سیستم خودکاری» که اشمیت در مصاحبه‌ی اخیرش با وایرد از آن حرف می‌زد.

نویسندگان این نامه با موشک‌های کروز و پهپادهای هدایت‌شونده از راه دور مشکلی نداشتند، چون می‌گفتند «انسان‌ها تمام تصمیم‌های مربوط به هدف‌گیری را می‌گیرند.» اما توسعه‌ی سلاح‌های کاملا خودمختاری که بتوانند بدون دخالت انسان بجنگند و بکشند، باید در همان مراحل اولیه متوقف شود.

در بخشی از این نامه آمده بود:

امضاکنندگان نامه آن زمان معتقد بودند که تکنولوژی هوش مصنوعی به نقطه‌ای رسیده که توسعه‌ی سلاح‌های خودمختار که توانایی انتخاب و شلیک به هدف بدون دخالت انسانی را داشته باشند، تا چند سال آینده که حتی به دهه نخواهد کشید، ممکن خواهد بود. آیا روزی که آن‌ها نگران فرارسیدنش بودند، حالا است؟

از نظر آن‌ها، سلاح‌های خودمختار سومین انقلاب جنگ‌افزارها بعد از باروت و سلاح‌های اتمی خواهند بود و خطرات آن‌ها شاید حتی از سلاح‌های اتمی بیشتر باشد؛ چرا که برخلاف سلاح‌های هسته‌ای، سلاح‌های مبتنی‌بر هوش مصنوعی به مواد خام پرهزینه یا موادی که به‌سختی به دست می‌آیند، نیاز ندارند، به همین خاطر، تولید انبوه آن‌ها برای تمام قدرت‌های نظامی بزرگ، ارزان‌تر و آسان‌تر خواهد بود.

در جای دیگر این نامه، سلاح‌های خودمختار به سلاح‌های شیمیایی و بیولوژیکی تشبیه شده‌اند:

این افراد معتقد بودند که مسابقه‌ی تسلیحات نظامی مبتنی‌بر هوش مصنوعی به‌هیچ عنوان برای بشریت مفید نخواهد بود و تاکید کردند که راه‌های زیادی وجود دارد که هوش مصنوعی می‌تواند بدون ایجاد ابزارهای جدیدی برای کشتن مردم، میدان‌های جنگ را برای انسان‌ها، به‌ویژه غیرنظامیان ایمن‌تر کند. اما این راه‌ها دقیقا کدام است و آیا ما داریم این روزها درباره‌ی این راه‌ها صحبت می‌کنیم یا درباره‌ی توسعه‌ی سلاح‌های خودمختاری که امضاکنندگان نامه درباره‌ی آن هشدار داده بودند؟

استفاده‌ مسئولانه از هوش مصنوعی در تجهیزات نظامی؟

و اما کنفرانس «استفاده‌ی مسئولانه از هوش مصنوعی در تجهیزات نظامی» (REAIM) که ۱۵ و ۱۶ فوریه (۲۶ و ۲۷ بهمن) برای نخستین بار در تاریخ، به میزبانی کره‌ی جنوبی و هلند برگزار شد؛ اجلاس بزرگی که که روسیه به آن دعوت نشد، اوکراین با وجود دعوت شدن در آن حضور پیدا نکرد و تمامی شرکت‌کنندگان به‌جز اسرائیل پذیرفتند که با رعایت یک‌سری قوانین، «به‌صورت مسئولانه» از تجهیزات نظامی هوش مصنوعی استفاده کنند.

اکثر شرکت‌کنندگان این کنفرانس از نقش تکنولوژی در بهبود سیستم دفاعی اوکراین استقبال کردند، اما در عین حال، ترس استفاده‌‌ی گسترده از سیستم‌های هوش مصنوعی خطرناک هم کاملا مشهود بود. از صحبت‌هایی که در این کنفرانس ردوبدل شد، این حس دریافت می‌شد که جنگ به‌سرعت وارد حوزه‌ی فوق‌العاده جدیدی می‌شود و هیچ نقشه‌ی راهی برای این آینده‌ی پیش‌بینی‌نشده وجود ندارد.

شاید بتوان کل حس‌وحال کنفرانس را در این بخش از سخنرانی ووپکه هوکسترا، وزیر امور خارجه‌ی هلند خلاصه کرد:

در بیانیه‌ای که آمریکا همزمان با برگزاری اجلاس منتشر کرد و در آن به ۱۲ شیوه برای استفاده‌ی مناسب از هوش مصنوعی اشاره کرده است، تاکید شده که تعداد کشورهایی که مشغول توسعه‌ی هوش مصنوعی نظامی هستند همواره در حال افزایش است و احتمالا این کشورها سراغ استفاده از سیستم‌های خودمختار خواهند رفت.

این همان نگرانی‌ای است که ۸ سال پیش در نامه‌‌ی سرگشاده پژوهشگران هوش مصنوعی مطرح شد. یکی از اصولی که در مورد هوش مصنوعی به بیان، ساده اما در عمل تقریبا غیرممکن است، این است که انسان‌ها باید همیشه کنترل ربات‌ها و سیستم‌های هوشمند را دست داشته باشند و به الگوریتم‌ها هرگز نباید اجازه داده شود خودشان تصمیمات مرگ و زندگی بگیرند.

آمریکا تأکید می‌کند که انسان‌ها در صورت استفاده از هوش مصنوعی در نهادهای نظامی باید مسئولیت کامل را برعهده بگیرند؛ اما مشخص نیست چطور انسان‌ها قرار است در زمانی‌که سیستم‌های هوش مصنوعی به‌طور گسترده و با سرعت برق‌ و باد در زمان جنگ استفاده می‌شوند، همواره در جریان کار آن‌ها قرار بگیرند.

مشکل دیگر این است که بیانیه‌ی آمریکا از لحاظ قانونی هیچ الزاماتی تعیین نمی‌کند و اصلا معلوم نیست حتی همین کشورهایی که بیانیه را امضا کرده‌اند، به آن متعهد باشند؛ چه برسد به آن‌هایی که از امضا کردن بیانیه خودداری کردند. از سوی دیگر، این بیانیه در برطرف کردن نگرانی‌های مرتبط با پهپادهای خودمختار، ربات‌های قاتل و احتمال تشدید درگیری نظامی توسط هوش مصنوعی، کاملا ناتوان است.

نکته‌‌ی دیگری که در صحبت‌های اشمیت و شرکت‌کنندگان کنفرانس REAIM به چشم می‌آید، نقش بی‌سابقه‌ای است که شرکت‌های بخش خصوصی، یا بهتر بگویم، غول‌های دنیای فناوری، در بخش نظامی ایفا می‌کنند؛ نقشی که اتفاقا یکی از فاکتورهای چالش‌برانگیز بحث استفاده از هوش مصنوعی در تجهیزات نظامی است.

تکنولوژی هوش مصنوعی و بهترین ابزارهایی که می‌توانند برای مصارف نظامی به کار روند، مثل الگوریتم‌هایی که قادر به شناسایی سخت‌افزار دشمن یا افراد خاص در ویدئو هستند یا می‌توانند استراتژی‌هایی یاد بگیرند که از پس انسان برنمی‌آید، همگی در شرکت‌هایی مانند گوگل، آمازون، اپل و یا استارتاپ‌ها ساخته می‌شوند.

الکس کارپ، مدیر ارشد شرکت داده Palantir که «زنجیره انهدام» دیجیتالی اوکراین را با ارائه اطلاعات به‌دست آمده از تصاویر ماهواره‌ای و حسگرهای میدانی بهینه کرده بود، در کنفرانس REAIM گفت: «کشوری که در جنگ‌های هوش مصنوعی آینده پیروز شود، نظم بین‌المللی را تعیین خواهد کرد.»‌

کارپ قبول داشت که سیاست‌مداران و افسران نظامی باید همواره کنترل هوش مصنوعی را در دست داشته باشند، اما تصدیق کرد که تمام افراد سیلیکون‌ولی چنین دیدگاهی ندارند. برای مثال، ایلان ماسک تصمیم گرفت دسترسی اوکراین به شبکه‌ی استارلینک را از ترس تشدید درگیری کاهش دهد. به قول یکی از شرکت‌کنندگان این کنفرانس، «ماسک اکنون سیاست دفاعی خودش را دارد.»

مطمئننا ماسک تنها کسی نیست که در قبال تکنولوژی، سیاست دفاعی خودش را دارد و این چندصدایی در حوزه‌ای که هنوز چارچوب مشخصی ندارد، می‌تواند پیش از آنکه قانون‌گذاران به خودشان بیایند، فاجعه‌آفرین شود.

نقطه بدون بازگشت از توسعه سلاح‌های خودمختار

پیرامون استفاده از سلاح‌های هوشمند، بحث‌های موافق و مخالف زیادی شکل گرفته‌ است. عده‌ای می‌گویند با جایگزین کردن سربازهای انسان با ربات‌ها، آمار تلفات کشور دارنده‌ی این سلاح‌ها کم می‌شود؛ اما خب از طرف دیگر، در اختیار داشتن ارتشی که تلفات جانی روی دست کشور پیشرفته‌تر نمی‌گذارد، انگیزه‌ی بیشتری به آن کشور برای آغاز جنگ می‌دهد.

سم آلتمن، مدیرعامل شرکت OpenAI که با عرضه‌ی چت‌بات ChatGPT، بحث هوش مصنوعی را سر زبان‌ها انداخت، می‌گوید فاصله‌ی زیادی تا فرارسیدن دوران ابزارهای هوش مصنوعی‌ای نداریم که به‌طور بالقوه ترسناک باشند. با‌این‌حال، او اعتقاد دارد که «جامعه برای سازگاری با چیزی بزرگ به زمان نیاز دارد.» و اگر سرعت سازگاری بیش‌از‌حد زیاد باشد، به‌طوری که افراد پیش از آنکه بدانند چطور باید از ابزارهای جدید استفاده کنند، آن‌ها را در سطح گسترده به کار بیگرند، تجربه‌ی ارائه‌شده‌ی این ابزارها ترسناک خواهد بود.

مهم‌ترین مشکل هوش مصنوعی به‌طور کلی و سلاح‌های خودمختار به‌طور خاص، این است که تکنولوژی‌های تحول‌آفرینی هستند. همین که هوش مصنوعی پیشرفته یا سلاح خودمختاری که خودش تصمیم بگیرد به چه کسی حمله کند، توسعه داده شود، دیگر نمی‌توان به نقطه‌ی قبل برگشت. همان‌طور که نمی‌توانیم باروت یا سلاح‌های هسته‌ای را به جعبه برگردانیم و درش را قفل کنیم، سلاح‌های خودمختار هم همین وضعیت را خواهند داشت.

به‌قول اریک برینجولفسن، مدیر آزمایشگاه اقتصاد دیجیتال استنفورد، «۱۰ سال آینده ممکن است جزو بهترین دهه‌های تاریخ بشر یا جزو بدترین آن‌ها باشد.»


هر آنچه میخواهید در اینجا بخوانید
شاید از نوشته‌های زیر خوشتان بیاید
نظر خود را درباره این پست بنویسید ...

منوی سریع