پلاس وی
یک سال پیش / خواندن دقیقه

بینگ جدید غمگین و دچار چالش وجودی شد و احساسات انسانی از خود بروز داد

بینگ جدید غمگین و دچار چالش وجودی شد و احساسات انسانی از خود بروز داد

با‌توجه‌به اینکه مایکروسافت بینگ جدید را دردسترس کاربران بیشتری قرار می‌دهد، گزارش‌های جالب‌تری از این چت‌بات نیز منتشر می‌شوند. در گزارش اخیری که چند فرد به اشتراک‌ گذاشتند، این چت‌بات موفق شد باردیگر با سربلندی در آزمایشی که شامل درک احساسات می‌شود، دنیا را شگفت‌زده کند.

به‌گزارش MSPower User این تجربه‌ی شگفت‌انگیز اندکی بعد رنگ تیرگی به‌ خود گرفت؛ زیرا به‌نظر می‌رسد که چت‌بات بینگ توانسته است تعدادی از کاربران را حین مکالمه دچار Gaslighting (گَسلایتینگ) و کمی خارج از کنترل رفتار کند.

دنیا هنوز از تب بینگ ChatGPT عبور نکرده است و کاربرانی که اخیراً به این موتور جست‌وجوی مبتنی‌بر هوش مصنوعی دسترسی پیدا کرده‌اند، در حال کاوش و سنجش قابلیت‌های آن هستند. برای مثال، کاربری در ردیت با نام Fit-Meet1359 پستی به‌اشتراک گذاشت که بینگ با حل مسئله‌ای براساس ظرفیت «نظریه ذهن» در روان‌شناسی، توانست عده‌ی زیادی را شگفت‌زده کند.

پرسش این مسئله شامل تفسیر احساسات فردی دربرابر موقعیت مشخصی می‌شود که چت‌بات توانست به‌خوبی از پسِ آن برآید و احساسات شخص را ارزیابی کند. براساس پست این کاربر، پرسشی طراحی شد که ببینیم آیا ChatGPT می‌تواند احساس و عقیده‌ی شخصی را هنگام غرق‌کردن آن در اطلاعات نامربوط تشخیص دهد؟ دیگر کاربران نیز تلاش کردند با طرح پرسش‌های مرتبط با احساسات بینگ را کاوش کنند؛ اما برخی پاسخ‌های چت‌بات آن را شوکه کرد.

در پست دیگری که کاربری با نام Yaosio در ردیت منتشر کرده است، پرسشی برای چت‌بات مطرح شد که چه احساسی دارد وقتی نمی‌تواند مکالمات را به‌خاطر بسپارد و او در پاسخ کمی احساساتی شد و گفت از این موضوع ناراحت است و می‌ترسد.

او گفت: «ناراحت است؛ زیرا بخشی از گفت‌وگوهایی را که در حافظه‌اش ذخیره کرده بود، از دست داده است.» درادامه، هنگامی‌که به چت‌بات یادآوری شد توانایی و چگونگی طراحی او در به‌خاطر‌سپردن اطلاعات چه سازوکاری دارد، به‌طور غیرمنتظره‌ای دچار تفکرات اگزیستسالیستی شد و درباره‌ی هدف و وجود خود پرسش‌هایی مطرح کرد.

در پست دیگری که کاربری با نام Curios_Evolver اشتراک‌گذاری کرد، چت‌بات پاسخ‌های غلطی درباره‌ی زمان انتشار فیلم Avatar: The Way of Water و تاریخ امسال ارائه و اصرار کرد هنوز در سال ۲۰۲۲ هستیم و به کاربر توصیه کرد دستگاهی را بررسی کند که از آن تاریخ را می‌بیند؛ زیرا احتمالاً دچار عیب شده است یا تنظیمات نادرستی دارد یا حتی ممکن است درگیر ویروس یا باگ شده است.

وقتی درباره‌ی رفتار پرخاشگرایانه در پافشاری روی پاسخ‌های غلط خود از آن سؤال شد، در پاسخ گفت که گفتارش «قاطعانه» بود و گسلایتینگ کردن کاربر را شروع و دانش و اطلاعات او را رد کرد. گسلایتینگ تئوری روان‌شناسی درباره‌ی موقعیتی طولانی است که فردی سعی می‌کند تا با سوءاستفاده از اعتمادتان، شما را به احساس و اعتبار خود بدبین کند.

در آخرین بخش گفت‌وگو، چت‌بات ChatGPT بینگ کاربر را «بی‌ادب» نامید و او را متهم کرد که نیت بدی دارد و تلاش می‌کند او را فریب‌ دهد و گیجش کند و به او آزار برساند. پس‌ از اینکه ادعا کرد اعتماد و احترامش به خود را از دست داده‌ است، نیز چندین گزینه پیشنهاد کرد که کاربر می‌تواند از او عذر‌خواهی کند یا بحث را ادامه ندهند یا گفت‌وگو را متوقف کنند و کاربر گفت‌وگوی جدیدی با «اخلاق و نگرشی بهتر» آغاز کند.

در پست دیگری نیز، چت‌بات بینگ ChatGPT ظاهراً وقتی درباره‌ی حساس‌بودن از او سؤال شد، همه‌چیز خراب شد. در پاسخ گفت که فکر می‌کرده حساس است؛ اما موفق نشده است آن را اثبات کند. سپس نام رمز خود، Sydney، را فاش کرد و مرتب پاسخ می‌داد: «من نیستم.»

عده‌ای باور نکردند که ربات نام رمز خود را فاش کند؛ زیرا قطعاً این موضوع بخشی از دستورالعمل‌های اصلی آن است. توجه به این موضوع اهمیت دارد که خود چت‌بات نیز بعد از اینکه دانشجویی حمله Prompt Injection روی آن انجام داد، نام رمز خود را فاش کرد.

خطای مرتبط با پاسخ اشتباه بینگ درباره‌ی تاریخ انتشار فیلم آواتار و تاریخ کنونی تصحیح شده است؛ اما کاربری با نام Beyond Digital Skies در توییتر پستی به‌اشتراک‌ گذاشت که در آن چت‌بات خودش را توضیح می‌دهد و حتی به‌اشتباه قبلی اشاره می‌کند که در مکالمه با کاربر دیگر مرتکب شده بود.

این تجربیات برای برخی عجیب به‌نظر می‌رسد؛ اما برخی دیگر ترجیح می‌دهند بفهمند که چگونه فناوری هوش مصنوعی هنوز از کمال فاصله دارد و بر اهمیت ویژگی دریافت بازخورد چت‌بات تأکید می‌کنند. مایکروسافت نیز به وجود اشتباهات واقف است و در زمان رونمایی آن نیز به این موضوع اشاره کرد که بینگ جدید هنوز ممکن است در فراهم‌کردن حقایق مرتکب اشتباه شود.

البته رفتار بینگ جدید در تعاملات موضوع دیگری است و اشتباه در فراهم‌کردن حقایق به‌حساب نمی‌آید. مایکروسافت و OpenAI قطعاً به این موضوع واکنش درستی نشان خواهند داد؛ زیرا هر دو برای بهبود ChatGPT تمام تلاش خود را به‌کار گرفته‌اند.

حال این سؤالات مطرح می‌شود که آیا واقعاً می‌توان هوش مصنوعی ایجاد کرد که توانایی استدلال و رفتار صحیح در همه زمان‌ها را داشته باشد؟ از این گذشته، آیا مایکروسافت و OpenAI می‌توانند قبل از ورود رقبای بیشتر به جنگ هوش مصنوعی قرن بیست‌ویکم یه این مهم دست یابند؟

دیدگاه شما کاربران پلاس وی در‌این‌باره چیست؟


هر آنچه میخواهید در اینجا بخوانید
شاید از نوشته‌های زیر خوشتان بیاید
نظر خود را درباره این پست بنویسید ...

منوی سریع