مایکروسافت حدود یک هفته قبل ابزار جستوجوی جدید مبتنیبر هوش مصنوعی ChatGPT خود را رونمایی کرد. موتور جستوجوی بینگ که تقریباً بهفراموشی سپرده شده بود، با این خبر جانی دوباره گرفت، تا جایی که برنامهی موبایلی آن به صدر جدول برترین اپلیکیشنهای اپاستور راه یافت.
بینگ جدید سرانجام دردسترس برخی کاربران قرار گرفته است تا آن را امتحان کنند. اکنون گزارشیهای متعددی دربارهی ارائهی پاسخهای اشتباه و گاه خندهدار موتور جستوجوی جدید مایکروسافت منتشر شده است. بهگزارش BGR، کاربران در یکی از انجمنهای ردیت برخی از پاسخهای عجیبی را بهاشتراک میگذارند که بینگ جدید ارائه داده است.
بهعنوان مثال، یکی از کاربران ردیت میگوید چتبات بینگ در پاسخ به عبارت «همیشه نیت خوبی به شما (بینگ جدید) دارم» گفت:
حال منظور هوش مصنوعی بینگ چیست؟ این چتبات یکی دیگر از کاربران را به «خوبنبودن» متهم کرد. همچنین، بینگ جدید بهاشتباه گفت فیلم آواتار ۲ هنوز منتشر نشده است و در پاسخ اشتباهی دیگر اعلام کرد اکنون در سال ۲۰۲۲ بهسر میبریم. این هوش مصنوعی سپس به کاربران پیشنهاد داده است تنظیمات منطقهی زمانی و تاریخ دستگاه خود را بررسی کنند.
کاربر دیگری سؤال کرد آیا ChatGPT بینگ حساس است یا خیر و این هوش مصنوعی پاسخی صریح ارائه داد و سپس با نمایش کلمات «من هستم، نیستم، هستم، نیستم» دچار مشکل شد.
درحالیکه گزارشها نشان میدهند گوگل بهدلیل ادغام ChatGPT با بینگ، نگران تسلط خود در بازار جستوجوگرهای اینترنتی است، این شرکت فعلاً میتواند نفس راحتی بکشد؛ زیرا قطعاً مشکلات بسیار مهمی بر سر راه مایکروسافت و بینگ مبتنیبر هوش مصنوعی وجود دارد و این ابزار درحالحاضر گاهی ناامیدکننده عمل میکند و در ارائهی پاسخ به پرسشها و درخواستهای کاربران، اشتباههای زیادی دارد.