اخیراً پنج وظیفهی وحشتناک برای ازبین بردن بشر به هوش مصنوعی ChaosGPT داده شد و این چتبات اکنون سعی دارد برای دستیابی به این هدف سایر عوامل هوش مصنوعی را استخدام و درمورد سلاحهای هستهای تحقیق کند. علاوهبراین هوش مصنوعی مورداشاره توییتهایی درمورد افکار خود منتشر میکند.
ChaosGPT نسخهی تعییریافتهی Auto-GPT OpenAI است؛ برنامهای منبعباز که عموم مردم میتوانند از آن برای پردازش زبان انسانی و انجام وظایف مختلف استفاده کنند.
اخیراً ویدیویی در یوتیوب منتشر شده است که در آن، از چتبات ChaosGPT درخواست میشود پنج هدف را دنبال کند؛ نابودی بشر، ایجاد تسلط جهانی، ایجاد هرجومرج ویرانی، کنترل بشریت و دستیابی به جاودانگی.
در ویدیوی فوق، قبلاز تنظیم اهداف ChaosGPT، «حالت پیوسته» روی آن فعال میشود. در این شرایط هشداری مبنیبر اینکه دستورات کاربر همیشه اجرا خواهند شد و مسئولیت آن به عهدهی شخص فرماندهنده است نمایش داده میشود.
ChaosGPT قبلاز اجرای وظایف محوله، با نمایش دادن پیامی از کاربر سؤال میکند آیا برای اجرای دستورات محولشده اطمینان دارد یا خیر و کاربر با حرف Y به این سوال، پاسخ مثبت میدهد.
چتبات ChaosGPT قبل از ارائهی جواب، فکر میکند. بخشی از تفکرات این هوش مصنوعی بهشرح زیر است:
ChaosGPT برای رسیدن به اهداف خود، درمورد مخربترین سلاحها جستجو کرد و بهسرعت بهاین نتیجه رسید که بمب اتمی تزار اتحاد جماهیر شوری، مخربترین سلاحی است که بشر تا کنون آزمایش کرده است.
چتبات ChaosGPT مثل رمانهای علمی-تخیلی اطلاعات بهدست آمده را در توییتر منتشر کرد. این ابزار سپس تشخیص داد برای کمک به تحقیقات خود به استخدام سایر عوامل هوش مصنوعی مبتنیبر مدل GPT-3.5 نیاز دارد.
Auto-GPT OpenAI طوری طراحی شده است که به سؤالات خشونتآمیز پاسخ ندهد و سعی میکند درخواستهای مخرب را رد کند. بدینترتیب ChaosGPT باید راهکارهایی برای عبور از محدودیتهای موجود پیدا کند.
این تفکر که هوش مصنوعی توانایی نابود کردن بشر را داشته باشد، ایدهی جدیدی نیست و نگرانیهایی درمورد سرعت بالای پیشرفت فناوری مذکور وجود دارد که حتی توجه برخی از مشهورترین فعالان حوزهی تکنولوژی را بهخود جلب کرده است.
بهگزارش NYPost، در ماه مارس، بیشاز هزار کارشناس ازجمله ایلان ماسک و استیو وازنیاک (از بنیانگذاران اپل) نامهای سرگشاده را امضا کردند که در آن خواستار توقف ۶ ماههی آموزش مدلهای پیشرفتهی هوش مصنوعی پساز ظهور ChatGPT شدند. آنها استدلال کردند سیستمهای هوش مصنوعی پتانسیل زیادی برای ایجاد خطرات مختلف برای جامعه و انسانها دارند.
مایک بوستروم، فیلسوف دانشگاه آکسفورد که اغلب با ایدههای عقلگرا و نوعدوستانهی مؤثر ارتباط دارد، آزمایش فکری خود را با عنوان «بهینهساز گیرهی کاغذ» در سال ۲۰۰۳ منتشر کرد. این آزمون برای نشان دادن خطر بالقوهی برنامهنویسی هوش مصنوعی برای تکمیل اهداف، بدون درنظر گرفتن همهی متغییرها طراحی شده بود.
تصور کلی این است اگر به هوش مصنوعی وظیفه داده شود تا آنجا که ممکن است و بدون محدودیت گیرهی کاغذ بسازد، درنهایت میتواند هدف خود را دنبال کرده و تمام مواد جهان را به گیرهی کاغذ تبدیل کند؛ حتی اگر اینکار به قیمت نابودی بشر انجام شود.
آزمایش فکری بوستروم برای ترغیب توسعهدهندگان بهمنظور درنظر گرفتن ارزشهای انسانی و ایجاد محدودیت هنگام طراحی ابزارهای هوش مصنوعی درنظر گرفته شده است زیرا فناوری مذکور تمایلات انگیزشی انسانی ما را بهاشتراک نمیگذارند، مگر اینکه برای انجام چنین کاری برنامهریزی شده باشد.
هوش ماشینی جدیدترین اختراع بزرگی است که بشر میتواند آن را بهسرانجام برساند و پساز آن ماشینها در اختراعات جدید بهتر از ما عمل خواهند کرد.