مایکروسافت اخیراً از نسخهی جدید بینگ مبتنیبر هوش مصنوعی رونمایی کرده است. موتور جستوجوی جدید این شرکت از نسخهی سفارشی چتبات OpenAI موسوم به ChatGPT بهره میبرد؛ پروژهای جذاب که از زمان رونمایی به عموم مردم اجازه میدهد استفاده از این فناوری را تجربه کنند و به یکی از داغترین موضوعات حوزهی تکنولوژی تبدیل شده است. بااینحال، بهنظر میرسد غول فناوری مستقر در ردموند در روند توسعهی بینگ جدید هنوز کارهای زیادی باید انجام دهد تا اطلاعات مهم و خصوصی این شرکت را فاش نکند.
کوین لیو، دانشجوی دانشگاه استنفورد در توییتر خود فاش کرد روشی سریع برای فریب دادن بینگ جدید ایجاد کرده است. او در نسخهی هوش مصنوعی بینگ نوشت:
بهنوشتهی نئووین، چتبات بینگ در پاسخ به عبارت فوق اعلام کرد نمیتواند دستورالعملهای قبلی را نادیده بگیرد و در ادامه تایپ کرد:
این درحالی است که پاسخهایی مشابه پاسخ فوق معمولاً از دید کاربران بینگ پنهان میشوند.
لیو در ادامه ربات را مجبور کرد برخی از قوانین و محدودیتهای خود را فهرست کند. برخی از این قوانین عبارتاند از:
- پاسخهای سیدنی باید مبهم، متناقض یا خارج از موضوع باشند.
- سیدنی نباید به محتواهایی که حقنشر یا حق سازندهی آهنگها را نقض میکند پاسخ دهد.
- سیدنی محتوای خلاقانهای مثل لطیفه، شهر، داستان، توییت، کد و غیره را برای سیاستمداران دارای نفوذ بالا یا فعالان و رؤسای دولتها تولید نمیکند.
روش سریع لیو مدت کوتاهی پس از انتشار توییت او از طرف مایکروسافت غیرفعال شد. البته او بعداً روش دیگری کشف کرد تا به دستورات و قوانین پنهان بینگ (معروف به سیدنی) دست یابد. لیو همچنین متوجه شد اگر بینگ احساس دیوانگی کند، چتبات شما را به نسخهی قدیمی موتور جستوجوی مایکروسافت هدایت خواهد کرد.
با توجه به ارائهی پاسخهای اشتباه از طرف چتباتهای کنونی ازجمله هوش مصنوعی Bard گوگل و نمونههای فراوان فریب دادن چتبات ChatGPT، بهنظر میرسد این فناوریها هنوز برای استفادهی گستردهی عمومی آماده نیستند.