ظاهراُ چتبات گوگل Bard، تنها هوش مصنوعی نیست که اولین نسخهی نمایشی آن خطاهایی در ارائهی اطلاعات داشت. دیمیتری بریتون، محقق مستقل در حوزهی هوش مصنوعی، اعلام کرده است اولین نسخهی نمایشی بینگ جدید مایکروسافت نیز در ارائهی اطلاعات مالی اشتباهات زیادی دارد.
مایکروسافت یک هفته قبل با اطمینان زیاد قابلیتهای هوش مصنوعی بینگ جدید را رونمایی کرد. غول فناوری اهل ردموند میگوید نسخهی جدید موتور جستوجوی آن، وظایفی مثل ارائهی مزیتها و معایبت مدل خاصی از جاروبرقیهای پرفروش و برنامهریزی سفر پنجروزه به مکزیکوسیتی و مقایسهی دادهها در گزارشهای مالی را بهخوبی انجام میدهد. اکنون مشخص شده است بینگ جدید در اغلب مواقع، دادههای مالی را بهاشتباه به کاربران نمایش میدهد.
هوش مصنوعی بینگ مایکروسافت در یکی از نسخههای پیشنمایش خود تلاش میکند گزارش مالی سهماههی سوم سال ۲۰۲۲ را برای شرکتی خاص خلاصهسازی کند؛ ولی در انجام این کار اشتباهات زیادی دارد. گزارش اصلی شرکت نشان میدهد حاشیهی سود ناخالص آن ۳۷٫۴ درصد بوده است و حاشیهی سود ناخالص تعدیلشدهی آن بدون کاهش ارزش، رقم ۳۸٫۷ درصد را نشان میدهد. بینگ حاشیهی ناخالص را با احتساب هزینههای تعدیل و کاهش ارزش ۳۷٫۴ درصد گزارش داده است.
بینگ جدید میگوید حاشیهی سود عملیاتی شرکت مدنظر ۵٫۹ درصد است که البته این موضوع در نتایج مالی رسمی دیده نمیشود. حاشیهی سود عملیاتی ۴٫۶ درصد یا با احتساب هزینهی کاهش ارزش ۳٫۹ درصد است.
مایکروسافت در ارائهی نسخهی نمایشی هوش مصنوعی بینگ دادههای مالی شرکت یادشده را در سهماههی سوم ۲۰۲۲ با نتایج Lulumeon مقایسه میکند. بینگ در ارائهی دادههای Lulumeon اشتباهات بیشتری مرتکب میشود و درنتیجه، مقایسهی آن پر از بیدقتی و اطلاعات نادرست است.
بریتون نیز به اشتباهات ظاهری بینگ جدید در پرسوجوی مربوط به مزیتها و معایب جاروبرقی پرفروش خانگی اشاره میکند. هوش مصنوعی مایکروسافت در این بخش توضیحاتی ارائه میدهد که با مشخصات محصول مذکور مطابقت ندارد؛ درحالیکه با جستوجوی معمولی در گوگل یا حتی بینگ قدیمی، مشخصات دقیق جاروبرقی یادشده بهوضوح نمایش داده خواهد شد.
بهنظر میرسد بینگ جدید برای ارائه پاسخ به درخواستهای کاربران، از چندین منبع داده بهطور همزمان استفاده میکند. بهعبارتدیگر، این ابزار منابع مختلف را خلاصهسازی و با یکدیگر ترکیب میکند؛ البته اشتباهات این هوش مصنوعی نشان میدهد ارزیابی کیفیت پاسخهای تولید شده با آن، چقدر سخت است.
اشتباهات هوش مصنوعی بینگ فقط به نسخههای نمایشی اولیهی آن ختم نمیشود. درحالحاضر، هزاران نفر به این ابزار دسترسی دارند؛ بههمیندلیل، برخی کاربران اشتباهات دیگری را در آن شناسایی کردهاند. در یکی از موضوعاتی که بهصورت گروهی در ردیت مطرح شده است، بینگ جدید بهاشتباه اعلام میکند که در سال ۲۰۲۲ بهسر میبریم. هوش مصنوعی بینگ میگوید:
ظاهراً مایکروسافت از مشکلات مذکور اطلاع دارد. کیتلین رولستون، مدیر ارتباطات این شرکت میگوید:
سایر کاربران ردیت نیست اشتباهات مشابهی را شناسایی کردهاند. هوش مصنوعی بینگ با اطمینان و بهطور نادرست بیان میکند که کرواسی در سال ۲۰۲۲، اتحادیهی اروپا را ترک کرده است. وبسایت PCWorld نیز متوجه شد هوش مصنوعی جدید بینگ، توهینهای قومیتی را به مردم آموزش میدهد. غول فناوری مستقر در ردموند اکنون درخواستی که به توهینهای نژادی در نتایج جستوجوی منجر میشود، تصحیح کرده است.
رولستون توضیح میدهد:
سایر کاربران هوش مصنوعی بینگ دریافتهاند این چتبات اغلب خود را سیدنی مینامد و این مسئله بهخصوص در مواقعی بیشتر دیده میشود که کاربران قصد دارند هوش مصنوعی را به ارائهی قوانین داخلیاش وادار کنند. رولستون میگوید:
ورج میگوید در هفتهی گذشته هنگام استفاده از چتبات هوش مصنوعی بینگ بارها با پاسخهای نادرست مواجه شده است. مایکروسافت بسیاری از مشکلات را بهسرعت برطرف کرده است؛ اما همچنان در ارائهی بسیاری از درخواستها اشتباه میکند.
مایکروسافت بهوضوح در مسیر توسعهی هوش مصنوعی خود راهی طولانی در پیش دارد؛ جایی که بینگ جدید میتواند با اطمینان بسیار زیاد پاسخ همهی سؤالات و درخواستهای کاربران را بهدرستی ارائه دهد. در گذشته نیز، اشتباهات مشابهی را در ChatGPT مشاهده کردهایم؛ اما مایکروسافت این ویژگی را بهطور مستقیم در موتور جستوجوی خود ارائه داده است و البته برخلاف ChatGPT از دادههای بهروز استفاده میکند. این شرکت تنظیمات زیادی را روی چتبات خود اِعمال کرده است تا سطح اشتباهات آن را به حداقل ممکن کاهش دهد.