تا چند وقت پیش میخواستم دربارهی جنگ شرکتهای بزرگ تکنولوژی بر سر موتورهای جستجوی مبتنیبر هوش مصنوعی بنویسم؛ اما حالا دارم دربارهی جنگهای واقعی و سلاحهای جنگی مبتنیبر هوش مصنوعی مینویسم.
من معمولا از آن مدل افرادی هستم که دید خوشبینانهای به آیندهی تکنولوژی دارند و با هیجان و اشتیاق، پیشرفتهای این حوزه را دنبال میکنند. اما راستش را بخواهید، چند وقتی است که تیتر اخبار مربوط به استفاده از سیستمهای هوش مصنوعی در جنگ مرا نگران کرده است.
جت جنگنده ارتش آمریکا ۱۷ ساعت با هوش مصنوعی پرواز کرد. سربازان ارتش استرالیا، سگهای رباتیک را با ذهن کنترل میکنند. ویدیوی وایرالشده تمرین نظامی رباتی چهارپا که اسلحهی گرم با خود حمل میکند و قدرت کشتار بالایی دارد. ارتش فرانسه در تمرینات نظامی از ربات چهارپای شرکت بوستون داینامیکس استفاده میکند. ویدیویی از شنا سوئدی هماهنگ دهها ربات چهارپای چینی.
اینها فقط چند نمونه از اخباری است که در چند ماه گذشته، توجه را به وجه تاریکتر و ترسناکتر سیستمهای هوش مصنوعی جلب کرده است؛ درحالیکه اکثر ما سرمان به ChatGPT گرم بود تا تکالیف مدرسهمان را انجام دهد یا به سوالهایمان درباره قدرت خرید آیفون در ایران جواب دهد، عدهی دیگری داشتند بهطور جدی به استفاده از تکنولوژی هوش مصنوعی برای مصارف نظامی فکر میکردند.
در بین انبوه اخبار مربوط به استفادهی نظامی از هوش مصنوعی، دو مورد بیشتر از همه نظر مرا به خود جلب کرد؛ اولی، گفتوگوی وایرد با اریک اشمیت، مدیرعامل سابق گوگل و دومی، کنفرانسی در لاهه با حضور نمایندگان بیش از ۶۰ کشور پیرامون استفادهی مسئولانه از هوش مصنوعی در تجهیزات نظامی بود که چند روز پیش، همزمان با انتشار رهنمود جدیدی برای «استفادهی نظامی مسئولانه» از هوش مصنوعی و فناوریهای خودمختار توسط آمریکا برگزار شد.
اریک اشمیت؛ مهره اصلی پیشرفتهای هوشمصنوعی پنتاگون؟
گفتوگوی وایرد با اشمیت با این تیتر و لید ترسناک شروع میشود:
اریک اشمیت دارد ماشین جنگی هوش مصنوعی تمامعیاری میسازد
مدیرعامل سابق گوگل در تلاش است ارتش آمریکا را به هوش مصنوعی پیشرفته، مجهز کند تا به مقابله با چین برود. آیا این جهان را امنتر میکند؟
و بعد، دربارهی نیاز به مجهز کردن هرچهزودتر بخش نظامی آمریکا به سیستمهای خودمختار و تأثیر هوش مصنوعی بر جنگ مشابه دورانی که سلاح هستهای معرفی شد، صحبت شد.
حسی به من میگوید در چند ماه آینده، نام اریک اشمیت را زیاد خواهیم شنید. اشمیت در سال ۲۰۰۱ مدیرعامل گوگل شد؛ یعنی درست زمانی که موتور جستجوی گوگل تنها چندصد کارمند داشت و بهزحمت پول درمیآورد. زمانی که اشمیت در سال ۲۰۱۷ از سمت خود کنارهگیری کرد، آلفابت (شرکت مادر گوگل) به شرکت بهشدت پولسازی با چندین پروژهی مهم ازجمله هوش مصنوعی پیشرفته، خودروهای خودران و کامپیوترهای کوانتومی تبدیل شده بود.
اما یک سال پیش از آنکه اشمیت، آلفابت را ترک کند، از پنتاگون بازدید کرد تا از نزدیک در جریان وضعیت تکنولوژی بخش نظامی آمریکا قرار بگیرد. او درحالیکه هنوز مدیر اجرایی آلفابت بود، دعوت اشتون کارتر، وزیر دفاع دولت اوباما را برای ریاست هیئت نوآوری دفاعی جدیدی که در تلاش برای مدرنسازی وزارت دفاع آمریکا بود، پذیرفت.
اشمیت در سال ۲۰۱۹ رئیس کمیسیون امنیت ملی ایالات متحده در زمینه هوش مصنوعی (NSCAI) شد که مسئولیتش بررسی تأثیر هوش مصنوعی بر امنیت و توان رقابتی آمریکا بود. گزارش نهایی این کمیسیون که در سال ۲۰۲۱ منتشر شد، بر رقابت هوش مصنوعی بین آمریکا و چین تمرکز داشت و هشدار داد که اگر آمریکا و جامعهی جهانی به خودش نیاید، برخی از کشورها ممکن است از این تکنولوژی برای گسترش ارزشهای استبدادی استفاده کنند. این گزارش همچنین از دولت آمریکا خواست که بیشتر با بخش خصوصی همکاری کند و برای پروژههای هوش مصنوعی بخش دولتی و خصوصی، بودجه، داده و توان رایانشی فراهم کند.
در رویدادی در پاییز ۲۰۲۲، اشمیت اعتراف کرد که کمیسیون NSCAI با آگاه کردن او از تهدیدات چین علیه آمریکا، مسیر زندگیاش را عوض کرده است. او گفت:
اشمیت در این مصاحبهی تاملبرانگیز گفت ایالات متحده به کمک هوش مصنوعی، میتواند فاصلهی نظامی خود را با چین افزایش دهد و اینکه باید از جنگ بین روسیه و اوکراین درس بگیرد. اشمیت به این اشاره کرد که ارتش اوکراین ازطریق بهرهگیری از فناوریهای توسعهدادهشدهی بخش خصوصی توانسته درمقابل حملهی روسیه مقاومت کند: ازجمله تبدیل پهپادهای تجاری به سلاح نظامی، تغییر کاربری سیستمهای ارتباطی منسوخ شده، چاپ سهبعدی قطعات کمیاب و توسعهی نرمافزار جدیدی برای مدیریت دستمزدهای نظامی که کار چند سال را به چند ماه تبدیل کرده است.
اشمیت از این شاکی بود که پنتاگون قوانین سختگیرانهای برای استفاده از تکنولوژی روز دارد و انتخاب و خرید نرمافزار توسط وزارت دفاع آمریکا ممکن است سالها طول بکشد. او گفت چالش اصلی آمریکا این است که چقدر سریعتر از رقبا میتواند از تکنولوژیهای تجاری برای مصارف نظامی استفاده کند.
اشمیت پس از ربط دادن توسعه سیستم جنگافزاری بهتر به حوزه تکنولوژی، تصویر هولناکی از اینترنت اشیا ترسیم کرد که البته از نظر او، اتفاق بسیار هیجانانگیزی است.
اشمیت هنوز حدود ۵ میلیارد دلار در آلفابت سهام دارد، سرمایهگذار استارتاپ پیمانکار نظامی Rebellion Defense است و از طریق شرکتهای سرمایهگذاری مختلف با سایر شرکتهایی که با دولت کار میکنند، ارتباط دارد.
با این اوصاف، به سختی میتوانید فرد دیگری را با همین سطح نفوذ در بخش تکنولوژی امنیت ملی پیدا کنید. بهگفتهی وایرد، هر پیشرفتی که پنتاگون در زمینه تحقق رویاهای هوش مصنوعیاش به دست آورد و تاثیر این رویاها بر دنیا هرچه باشد، میتوان پیشبینی کرد که اشمیت به احتمال زیاد در مرکز تمام این اتفاقها خواهد بود.
اشمیت در این گفتوگو، همچنین به استارتاپی به نام Istari اشاره کرد که از فناوری یادگیری ماشین و متاورس برای مونتاژ و آزمایش مجازی وسایل نقلیهی نظامی مثل تانک استفاده میکند. شاید فعالیت این استارتاپ که از سرمایهگذاری اشمیت برخوردار است، به نظر کسلکننده برسد، اما او میگوید همین فعالیتها میتواند نوآوریهای صنعت تکنولوژی را به بخش نظامی آمریکا بیاورد.
اما Istari تنها یک قطعهی کوچک از پروژهی بسیار بزرگی است که در آن اشمیت سعی دارد ارتش آمریکا را با تکنولوژی و طرز فکر سیلکونولی همراه کند.
سال گذشته، پنتاگون کریگ مارتل، پژوهشگر ارشد هوش مصنوعی و یادگیری ماشین دراپباکس، لیفت و لینکدین را بهعنوان رییس هوش مصنوعی این وزارتخانه منصوب کرد. مارتل هم دقیقا طرز تفکر اشمیت را داشت. او پس از تصدی پست جدید به بلومبرگ گفت که میخواهد پنتاگون را از «بیتحرکی بوروکراتیک» خود خارج کند و معتقد بود بخش نظامی آمریکا با سرعت بهشدت آهستهای به سمت هوش مصنوعی در حرکت است و این موضوع باید تغییر کند.
کمیسیون NSCAI هم اگرچه منحل شده، اشمیت اکنون در نهادی مشابه که پیامدهای پیشرفت در حوزهی بیوتکنولوژی را بررسی میکند، مشغول به کار است. اشمیت همچنین اندیشکدهی جدید و مستقلی به نام «پروژه مطالعات رقابتی ویژه» (SCSP) را تأمین مالی کرده که به فناوریهایی فراتر از هوش مصنوعی از جمله همجوشی هستهای، رایانش کوانتومی و ارتباطات و ویرایش ژن نگاه میکند و حوزهی فعالیتهایش چیزی شبیه پروژههای ضد شوروی آمریکا در دوران جنگ سرد است.
قانون CHIPS نیز که تابستان امسال با حمایت دو حزبی و با انگیزهی نگرانی از پیشروی چین در صنعت تراشه تصویب شد، دولت آمریکا را متعهد میکند که در ۱۰ سال آینده، ۲۰۰ میلیارد دلار برای تحقیق و ساخت قطعات نیمههادی در اختیار شرکتهای آمریکایی از جمله اینتل و AMD قرار دهد.
طبق پیشبینی وال استریت، بزرگترین برندههای رقابت هوش مصنوعی، شرکتهایی خواهند بود که «اسلحههایی» درست میکنند که توسط تمام رقبا استفاده خواهد شد؛ که منظور پردازندههای گرافیکی قدرتمندی است که برای سیستمهای هوش مصنوعی مولد مثل چتبات ChatGPT و سیستمهای مولد تصویری مثل Dall-E و میدجرنی استفاده میشود.
سلاحهای خودمختار جنگی؛ نگرانی اصلی ورود هوش مصنوعی به بخش نظامی
اما از همهی این حرفها گذشته، چیزی که مرا بیش از هرچیز نگران میکند، رویکرد بیدغدغه و بیخیال اشمیت به مقولهای است که چند سال پیش گروه بزرگی از دانشمندان و افراد سرشناس حوزهی هوش مصنوعی، دربارهی آن هشدار جدی داده بودند: سلاحهای خودمختار جنگی.
اشمیت در مصاحبه با وایرد گفت:
سال ۲۰۱۵، گروه بزرگی از دانشمندان و افراد سرشناس از جمله استیون هاوکینگ، استیو وازنیک، ایلان ماسک و جمعی از پژوهشگران حوزهی هوش مصنوعی در نامهای سرگشاده از دولتها خواستند توسعهی «سلاحهای خودمختار جنگی» را ممنوع کنند تا از «مسابقهی تسلیحاتی هوش مصنوعی با کاربرد نظامی» جلوگیری شود.
در این نامه که به امضای بیش از ۳۴ هزار نفر رسیده بود، تمرکز بیشتر روی رباتها و تجهیزاتی بود که ممکن بود در آینده به چنان سطح از هوشمندی برسند که بخواهند خودمختار شوند و با تصمیم خود و بدون دخالت انسانی، به اهداف شلیک کنند؛ چیزی شبیه همان ربات چهارپایی که با اسلحه گرم، به سیبل تیراندازی، شلیک میکرد و حتی شاید همان «سیستم خودکاری» که اشمیت در مصاحبهی اخیرش با وایرد از آن حرف میزد.
نویسندگان این نامه با موشکهای کروز و پهپادهای هدایتشونده از راه دور مشکلی نداشتند، چون میگفتند «انسانها تمام تصمیمهای مربوط به هدفگیری را میگیرند.» اما توسعهی سلاحهای کاملا خودمختاری که بتوانند بدون دخالت انسان بجنگند و بکشند، باید در همان مراحل اولیه متوقف شود.
در بخشی از این نامه آمده بود:
امضاکنندگان نامه آن زمان معتقد بودند که تکنولوژی هوش مصنوعی به نقطهای رسیده که توسعهی سلاحهای خودمختار که توانایی انتخاب و شلیک به هدف بدون دخالت انسانی را داشته باشند، تا چند سال آینده که حتی به دهه نخواهد کشید، ممکن خواهد بود. آیا روزی که آنها نگران فرارسیدنش بودند، حالا است؟
از نظر آنها، سلاحهای خودمختار سومین انقلاب جنگافزارها بعد از باروت و سلاحهای اتمی خواهند بود و خطرات آنها شاید حتی از سلاحهای اتمی بیشتر باشد؛ چرا که برخلاف سلاحهای هستهای، سلاحهای مبتنیبر هوش مصنوعی به مواد خام پرهزینه یا موادی که بهسختی به دست میآیند، نیاز ندارند، به همین خاطر، تولید انبوه آنها برای تمام قدرتهای نظامی بزرگ، ارزانتر و آسانتر خواهد بود.
در جای دیگر این نامه، سلاحهای خودمختار به سلاحهای شیمیایی و بیولوژیکی تشبیه شدهاند:
این افراد معتقد بودند که مسابقهی تسلیحات نظامی مبتنیبر هوش مصنوعی بههیچ عنوان برای بشریت مفید نخواهد بود و تاکید کردند که راههای زیادی وجود دارد که هوش مصنوعی میتواند بدون ایجاد ابزارهای جدیدی برای کشتن مردم، میدانهای جنگ را برای انسانها، بهویژه غیرنظامیان ایمنتر کند. اما این راهها دقیقا کدام است و آیا ما داریم این روزها دربارهی این راهها صحبت میکنیم یا دربارهی توسعهی سلاحهای خودمختاری که امضاکنندگان نامه دربارهی آن هشدار داده بودند؟
استفاده مسئولانه از هوش مصنوعی در تجهیزات نظامی؟
و اما کنفرانس «استفادهی مسئولانه از هوش مصنوعی در تجهیزات نظامی» (REAIM) که ۱۵ و ۱۶ فوریه (۲۶ و ۲۷ بهمن) برای نخستین بار در تاریخ، به میزبانی کرهی جنوبی و هلند برگزار شد؛ اجلاس بزرگی که که روسیه به آن دعوت نشد، اوکراین با وجود دعوت شدن در آن حضور پیدا نکرد و تمامی شرکتکنندگان بهجز اسرائیل پذیرفتند که با رعایت یکسری قوانین، «بهصورت مسئولانه» از تجهیزات نظامی هوش مصنوعی استفاده کنند.
اکثر شرکتکنندگان این کنفرانس از نقش تکنولوژی در بهبود سیستم دفاعی اوکراین استقبال کردند، اما در عین حال، ترس استفادهی گسترده از سیستمهای هوش مصنوعی خطرناک هم کاملا مشهود بود. از صحبتهایی که در این کنفرانس ردوبدل شد، این حس دریافت میشد که جنگ بهسرعت وارد حوزهی فوقالعاده جدیدی میشود و هیچ نقشهی راهی برای این آیندهی پیشبینینشده وجود ندارد.
شاید بتوان کل حسوحال کنفرانس را در این بخش از سخنرانی ووپکه هوکسترا، وزیر امور خارجهی هلند خلاصه کرد:
در بیانیهای که آمریکا همزمان با برگزاری اجلاس منتشر کرد و در آن به ۱۲ شیوه برای استفادهی مناسب از هوش مصنوعی اشاره کرده است، تاکید شده که تعداد کشورهایی که مشغول توسعهی هوش مصنوعی نظامی هستند همواره در حال افزایش است و احتمالا این کشورها سراغ استفاده از سیستمهای خودمختار خواهند رفت.
این همان نگرانیای است که ۸ سال پیش در نامهی سرگشاده پژوهشگران هوش مصنوعی مطرح شد. یکی از اصولی که در مورد هوش مصنوعی به بیان، ساده اما در عمل تقریبا غیرممکن است، این است که انسانها باید همیشه کنترل رباتها و سیستمهای هوشمند را دست داشته باشند و به الگوریتمها هرگز نباید اجازه داده شود خودشان تصمیمات مرگ و زندگی بگیرند.
آمریکا تأکید میکند که انسانها در صورت استفاده از هوش مصنوعی در نهادهای نظامی باید مسئولیت کامل را برعهده بگیرند؛ اما مشخص نیست چطور انسانها قرار است در زمانیکه سیستمهای هوش مصنوعی بهطور گسترده و با سرعت برق و باد در زمان جنگ استفاده میشوند، همواره در جریان کار آنها قرار بگیرند.
مشکل دیگر این است که بیانیهی آمریکا از لحاظ قانونی هیچ الزاماتی تعیین نمیکند و اصلا معلوم نیست حتی همین کشورهایی که بیانیه را امضا کردهاند، به آن متعهد باشند؛ چه برسد به آنهایی که از امضا کردن بیانیه خودداری کردند. از سوی دیگر، این بیانیه در برطرف کردن نگرانیهای مرتبط با پهپادهای خودمختار، رباتهای قاتل و احتمال تشدید درگیری نظامی توسط هوش مصنوعی، کاملا ناتوان است.
نکتهی دیگری که در صحبتهای اشمیت و شرکتکنندگان کنفرانس REAIM به چشم میآید، نقش بیسابقهای است که شرکتهای بخش خصوصی، یا بهتر بگویم، غولهای دنیای فناوری، در بخش نظامی ایفا میکنند؛ نقشی که اتفاقا یکی از فاکتورهای چالشبرانگیز بحث استفاده از هوش مصنوعی در تجهیزات نظامی است.
تکنولوژی هوش مصنوعی و بهترین ابزارهایی که میتوانند برای مصارف نظامی به کار روند، مثل الگوریتمهایی که قادر به شناسایی سختافزار دشمن یا افراد خاص در ویدئو هستند یا میتوانند استراتژیهایی یاد بگیرند که از پس انسان برنمیآید، همگی در شرکتهایی مانند گوگل، آمازون، اپل و یا استارتاپها ساخته میشوند.
الکس کارپ، مدیر ارشد شرکت داده Palantir که «زنجیره انهدام» دیجیتالی اوکراین را با ارائه اطلاعات بهدست آمده از تصاویر ماهوارهای و حسگرهای میدانی بهینه کرده بود، در کنفرانس REAIM گفت: «کشوری که در جنگهای هوش مصنوعی آینده پیروز شود، نظم بینالمللی را تعیین خواهد کرد.»
کارپ قبول داشت که سیاستمداران و افسران نظامی باید همواره کنترل هوش مصنوعی را در دست داشته باشند، اما تصدیق کرد که تمام افراد سیلیکونولی چنین دیدگاهی ندارند. برای مثال، ایلان ماسک تصمیم گرفت دسترسی اوکراین به شبکهی استارلینک را از ترس تشدید درگیری کاهش دهد. به قول یکی از شرکتکنندگان این کنفرانس، «ماسک اکنون سیاست دفاعی خودش را دارد.»
مطمئننا ماسک تنها کسی نیست که در قبال تکنولوژی، سیاست دفاعی خودش را دارد و این چندصدایی در حوزهای که هنوز چارچوب مشخصی ندارد، میتواند پیش از آنکه قانونگذاران به خودشان بیایند، فاجعهآفرین شود.
نقطه بدون بازگشت از توسعه سلاحهای خودمختار
پیرامون استفاده از سلاحهای هوشمند، بحثهای موافق و مخالف زیادی شکل گرفته است. عدهای میگویند با جایگزین کردن سربازهای انسان با رباتها، آمار تلفات کشور دارندهی این سلاحها کم میشود؛ اما خب از طرف دیگر، در اختیار داشتن ارتشی که تلفات جانی روی دست کشور پیشرفتهتر نمیگذارد، انگیزهی بیشتری به آن کشور برای آغاز جنگ میدهد.
سم آلتمن، مدیرعامل شرکت OpenAI که با عرضهی چتبات ChatGPT، بحث هوش مصنوعی را سر زبانها انداخت، میگوید فاصلهی زیادی تا فرارسیدن دوران ابزارهای هوش مصنوعیای نداریم که بهطور بالقوه ترسناک باشند. بااینحال، او اعتقاد دارد که «جامعه برای سازگاری با چیزی بزرگ به زمان نیاز دارد.» و اگر سرعت سازگاری بیشازحد زیاد باشد، بهطوری که افراد پیش از آنکه بدانند چطور باید از ابزارهای جدید استفاده کنند، آنها را در سطح گسترده به کار بیگرند، تجربهی ارائهشدهی این ابزارها ترسناک خواهد بود.
مهمترین مشکل هوش مصنوعی بهطور کلی و سلاحهای خودمختار بهطور خاص، این است که تکنولوژیهای تحولآفرینی هستند. همین که هوش مصنوعی پیشرفته یا سلاح خودمختاری که خودش تصمیم بگیرد به چه کسی حمله کند، توسعه داده شود، دیگر نمیتوان به نقطهی قبل برگشت. همانطور که نمیتوانیم باروت یا سلاحهای هستهای را به جعبه برگردانیم و درش را قفل کنیم، سلاحهای خودمختار هم همین وضعیت را خواهند داشت.
بهقول اریک برینجولفسن، مدیر آزمایشگاه اقتصاد دیجیتال استنفورد، «۱۰ سال آینده ممکن است جزو بهترین دهههای تاریخ بشر یا جزو بدترین آنها باشد.»