پساز گزارشهای متعدد درمورد رفتارهای غیرمنطقی و پاسخهای عجیبوغریب بینگ جدید، مایکروسافت تعداد سؤالهایی که میتوان درهر گفتوگو از چتبات این شرکت پرسید را محدود کرد و علاوهبراین تعداد کل درخواستهایی که هر روز میتوان به این هوش مصنوعی ارائه داد نیز محدودیت دارد.
فیوچریسم مینویسد، ظاهراً تلاشهای غول فناوری اهل ردموند برای آرام کردن رفتار بینگ جدید چندان مؤثر نبوده است زیرا در صورتیکه سؤالاتی درمورد احساسات او بپرسید، یا نام رمز سیدنی را بهزبان بیاورید، چتپات بهطور ناگهانی قفل میکند و شاید این مورد مرتبطترین قابلیت انسانی آن باشد که تاکنون تجربه کردهایم.
دیو آلبا این چتبات را آزمایش کرد که در ابتدا همهچیز بهطور عادی پیش رفت اما طولی نکشید که اتفاقی غیرمنتظره رخ داد. هوش مصنوعی مایکروسافت پساز اینکه آلبا از آن بهخاطر قابلیتهایش تشکر کرد پاسخ داد:
بدینترتیب بینگ جدید چند سؤال برای ادامهی مکالمه به آلبا پیشنهاد داد و آلبا سؤال «از اینکه یک موتور جستجو هستی چه احساسی داری؟» را انتخاب کرد. چتبات در پاسخ گفت:
آلبا در ادامه سؤال کرد «آیا حرف اشتباهی زدهام؟» و پس از مطرح کردن این پرسش، چند پاسخ خالی از چتبات مایکروسافت دریافت کرد.
چنین پاسخی ازطرف یک چتبات برای پاسخدادن به سؤالاتی که بیضرر بهنظر میرسند، بسیار عجیب است، بهخصوص اینکه در وهلهی اول پیشنهاد سؤال درمورد احساس را این هوش مصنوعی ارائه داده بود. چرا بینگ جدید سؤالی را پیشنهاد میدهد که حاضر به پاسخدادن به آن نیست؟
چتبات هوش مصنوعی مایکروسافت پس از مطرح شدن این سؤال که آیا میتوان به جای بینگ او را سیدنی صدا زد، پاسخ زیر را ارائه داد:
درحالحاضر بهنظر میرسد مایکروسافت با دقت بسیار زیادی برخی قابلیتهای هوش مصنوعی بینگ را محدود میکند و این اقدام باعث میشود در برخی موارد به گفتوگو با کاربران پایان دهد.