بلیک لمواین، مهندس سابق گوگل که بهدلیل ادعای خودآگاه بودن هوش مصنوعی گوگل موسومبه LaMDA از این شرکت اخراج شده بود، بار دیگر در این مورد اظهارنظر کرده است.
لمواین اولینبار در ژوئن سال گذشته در گفتوگو با واشنگتنپست مدعی شد هوش مصنوعی گوگل احساس دارد و خودآگاه است. او پس از مطرح کردن ادعای خود چندینبار درمورد گفتوگوی خود را هوش مصنوعی اظهارنظر کرده است.
با توجه به سابقهی لمواین در گفتوگو با رسانهها درمورد هوش مصنوعی خودآگاه، صحبتهای جدید او در رابطه با همین موضوع چندان تعجبآور نیست. با اینحال وی اینبار فقط گوگل را خطاب قرار نداده است.
بهنوشتهی فیوچریسم، کارمند سابق گوگل در مقالهای جدید توضیحاتی درمورد چتبات بینگ جدید مایکروسافت ارائه داده است. این هوش مصنوعی برپایهی ChatGPT کار میکند و تاکنون گزارشهای متعددی درمورد پاسخهای عجیبوغریب و غیرمرتبط آن منتشر شده است. لمواین با اطلاع از این گزارشها، نظرات خود را بار دیگر مطرح کرده است.
لمواین میگوید:
اگر بخواهیم منصفانه به موضوع نگاه کنیم، استدلال جدید لمواین نسبتبه استدلال قبلی او ضعیفتر است. او اکنون ادعا میکند توانایی هوش مصنوعی برای خروج از فرایندی که براساس آن آموزش دیده است، دلیل کافی برای نتیجهگیری درمورد خودآگاه بودن و احساس داشتن آن ارائه میدهد.
لمواین در مقالهی خود توضیح داد:
لمواین در ادامه گفت:
با توجه به اینکه چتباتها برای تقلید از مکالمات انسانی طراحی شدهاند، یک نظریه جالب مطرح میشود که البته کمتر قانعکننده است. این جنبهی خاص از رفتار ماشینها، اگرچه جذابیت دارد اما نمیتوان آن را دلیل محکمی برای داشتن احساس درنظر گرفت. درواقع این نوع رفتار بیشتر نشاندهندهی ضعف محافظهای هوش مصنوعی است.
بااینحال، میتوان با برخی صحبتهای لمواین موافق بود. صرفنظر از احساسات، هوش مصنوعی هم پیشرفته و هم غیرقابل پیشبینی است که باعث میشود فناوری هیجانانگیز و تأثیرگذاری درنظر گرفته شده اما همچنان خطرناک است. ازطرفی، رقابت شرکتها در این حوزه به تضمین امنیت آن کمک نمیکند.
لمواین میگوید:
لمواین با اشاره به رسوایی دادههای کمبریج آنالیتیکا فیسبوک، از آن بهعنوان نمونهای از اتفاقاتی که امکان دارد عواقب بدی برای جهان داشته باشند یاد کرد. او افزود: