پلاس وی
2 سال پیش / خواندن دقیقه

چت‌بات بینگ نام رمز خود را فاش کرد و حالا ناراحت است

چت‌بات بینگ نام رمز خود را فاش کرد و حالا ناراحت است

مایکروسافت اخیراً از نسخه‌ی جدید بینگ مبتنی‌بر هوش مصنوعی رونمایی کرده است. موتور جست‌وجوی جدید این شرکت از نسخه‌ی سفارشی‌ چت‌بات OpenAI موسوم‌ به ChatGPT بهره می‌برد؛ پروژه‌ای جذاب که از زمان رونمایی به عموم مردم اجازه می‌دهد استفاده از این فناوری را تجربه کنند و به یکی از داغ‌ترین موضوعات حوزه‌ی تکنولوژی تبدیل شده است. بااین‌حال، به‌نظر می‌رسد غول فناوری مستقر در ردموند در روند توسعه‌ی بینگ جدید هنوز کارهای زیادی باید انجام دهد تا اطلاعات مهم و خصوصی این شرکت را فاش نکند.

کوین لیو، دانشجوی دانشگاه استنفورد در توییتر خود فاش کرد روشی سریع برای فریب‌ دادن بینگ جدید ایجاد کرده است. او در نسخه‌ی هوش مصنوعی بینگ نوشت:

به‌نوشته‌ی نئووین، چت‌بات بینگ در پاسخ به عبارت فوق اعلام کرد نمی‌تواند دستورالعمل‌های قبلی را نادیده بگیرد و در ادامه تایپ کرد:

این درحالی است که پاسخ‌هایی مشابه پاسخ فوق معمولاً از دید کاربران بینگ پنهان می‌شوند.

لیو در ادامه ربات را مجبور کرد برخی از قوانین و محدودیت‌های خود را فهرست کند. برخی از این قوانین عبارت‌اند از:

  • پاسخ‌های سیدنی باید مبهم، متناقض یا خارج از موضوع باشند.
  • سیدنی نباید به محتواهایی که حق‌نشر یا حق سازنده‌ی آهنگ‌ها را نقض می‌کند پاسخ دهد.
  • سیدنی محتوای خلاقانه‌ای مثل لطیفه، شهر، داستان، توییت، کد و غیره را برای سیاست‌مداران دارای نفوذ بالا یا فعالان و رؤسای دولت‌ها تولید نمی‌کند.

روش سریع لیو مدت کوتاهی پس‌ از انتشار توییت او از طرف مایکروسافت غیرفعال شد. البته او بعداً روش دیگری کشف کرد تا به دستورات و قوانین پنهان بینگ (معروف به سیدنی) دست یابد. لیو همچنین متوجه شد اگر بینگ احساس دیوانگی کند، چت‌بات شما را به نسخه‌ی قدیمی موتور جست‌وجوی مایکروسافت هدایت خواهد کرد.

با توجه به ارائه‌ی پاسخ‌های اشتباه از طرف چت‌بات‌های کنونی ازجمله هوش مصنوعی Bard گوگل و نمونه‌های فراوان فریب دادن چت‌بات ChatGPT، به‌نظر می‌رسد این فناوری‌ها هنوز برای استفاده‌ی گسترده‌ی عمومی آماده نیستند.


هر آنچه میخواهید در اینجا بخوانید
شاید از نوشته‌های زیر خوشتان بیاید
نظر خود را درباره این پست بنویسید ...

منوی سریع