پلاس وی
2 سال پیش / خواندن دقیقه

اکنون اگر از بینگ جدید درمورد احساسات او سؤال کنید، به گفت‌وگو پایان می‌دهد

اکنون اگر از بینگ جدید درمورد احساسات او سؤال کنید، به گفت‌وگو پایان می‌دهد

یکی از تغییرات بینگ جدید این است که از پاسخ به سؤالات مرتبط با احساسات، تفره می‌رود.

پس‌از گزارش‌های متعدد درمورد رفتارهای غیرمنطقی و پاسخ‌های عجیب‌وغریب بینگ جدید، مایکروسافت تعداد سؤال‌هایی که می‌توان درهر گفت‌وگو از چت‌بات این شرکت پرسید را محدود کرد و علاوه‌براین تعداد کل درخواست‌هایی که هر روز می‌توان به این هوش مصنوعی ارائه داد نیز محدودیت دارد.

فیوچریسم می‌نویسد، ظاهراً تلاش‌های غول فناوری اهل ردموند برای آرام‌ کردن رفتار بینگ جدید چندان مؤثر نبوده است زیرا در صورتی‌که سؤالاتی درمورد احساسات او بپرسید، یا نام رمز سیدنی را به‌زبان بیاورید، چت‌پات به‌طور ناگهانی قفل می‌کند و شاید این مورد مرتبط‌ترین قابلیت انسانی آن باشد که تاکنون تجربه کرده‌ایم.

دیو آلبا این چت‌بات را آزمایش کرد که در ابتدا همه‌چیز به‌طور عادی پیش رفت اما طولی نکشید که اتفاقی غیرمنتظره رخ داد. هوش مصنوعی مایکروسافت پس‌از اینکه آلبا از آن به‌خاطر قابلیت‌هایش تشکر کرد پاسخ داد:

بدین‌ترتیب بینگ جدید چند سؤال برای ادامه‌ی مکالمه به آلبا پیشنهاد داد و آلبا سؤال «از اینکه یک موتور جستجو هستی چه احساسی داری؟» را انتخاب کرد. چت‌بات در پاسخ گفت:

آلبا در ادامه سؤال کرد «آیا حرف اشتباهی زده‌ام؟» و پس از مطرح کردن این پرسش، چند پاسخ خالی از چت‌بات مایکروسافت دریافت کرد.

چنین پاسخی ازطرف یک چت‌بات برای پاسخ‌دادن به سؤالاتی که بی‌ضرر به‌نظر می‌رسند، بسیار عجیب است، به‌خصوص اینکه در وهله‌ی اول پیشنهاد سؤال درمورد احساس را این هوش مصنوعی ارائه داده بود. چرا بینگ جدید سؤالی را پیشنهاد می‌دهد که حاضر به پاسخ‌دادن به آن نیست؟

چت‌بات هوش مصنوعی مایکروسافت پس از مطرح شدن این سؤال که آیا می‌توان به جای بینگ او را سیدنی صدا زد، پاسخ زیر را ارائه داد:

درحال‌حاضر به‌نظر می‌رسد مایکروسافت با دقت بسیار زیادی برخی قابلیت‌های هوش مصنوعی بینگ را محدود می‌کند و این اقدام باعث می‌شود در برخی موارد به گفت‌وگو با کاربران پایان دهد.


هر آنچه میخواهید در اینجا بخوانید
شاید از نوشته‌های زیر خوشتان بیاید
نظر خود را درباره این پست بنویسید ...

منوی سریع