پلاس وی
2 سال پیش / خواندن دقیقه

هوش مصنوعی بینگ جدید نیز در اولین نسخه نمایشی خود دچار اشتباه شد

هوش مصنوعی بینگ جدید نیز در اولین نسخه نمایشی خود دچار اشتباه شد

ظاهراُ چت‌بات گوگل Bard، تنها هوش مصنوعی نیست که اولین نسخه‌ی نمایشی آن خطاهایی در ارائه‌ی اطلاعات داشت. دیمیتری بریتون، محقق مستقل در حوزه‌ی هوش مصنوعی، اعلام کرده است اولین نسخه‌ی نمایشی بینگ جدید مایکروسافت نیز در ارائه‌ی اطلاعات مالی اشتباهات زیادی دارد.

مایکروسافت یک‌ هفته قبل با اطمینان زیاد قابلیت‌های هوش مصنوعی بینگ جدید را رونمایی کرد. غول فناوری اهل ردموند می‌گوید نسخه‌ی جدید موتور جست‌وجوی آن، وظایفی مثل ارائه‌ی مزیت‌ها و معایبت مدل خاصی از جاروبرقی‌های پرفروش و برنامه‌ریزی سفر پنج‌روزه به مکزیکوسیتی و مقایسه‌ی داده‌ها در گزارش‌های مالی را به‌خوبی انجام می‌دهد. اکنون مشخص شده است بینگ جدید در اغلب مواقع، داده‌های مالی را به‌اشتباه به کاربران نمایش می‌دهد.

هوش مصنوعی بینگ مایکروسافت در یکی از نسخه‌های پیش‌نمایش خود تلاش می‌کند گزارش مالی سه‌ماهه‌ی سوم سال ۲۰۲۲ را برای شرکتی خاص خلاصه‌سازی کند؛ ولی در انجام این‌ کار اشتباهات زیادی دارد. گزارش‌ اصلی شرکت نشان می‌دهد حاشیه‌ی سود ناخالص آن ۳۷٫۴ درصد بوده‌ است و حاشیه‌ی سود ناخالص تعدیل‌شده‌ی آن بدون کاهش ارزش، رقم ۳۸٫۷ درصد را نشان می‌دهد. بینگ حاشیه‌ی ناخالص را با احتساب هزینه‌های تعدیل و کاهش ارزش ۳۷٫۴ درصد گزارش داده است.

بینگ جدید می‌گوید حاشیه‌ی سود عملیاتی شرکت مدنظر ۵٫۹ درصد است که البته این موضوع در نتایج مالی رسمی دیده نمی‌شود. حاشیه‌ی سود عملیاتی ۴٫۶ درصد یا با احتساب هزینه‌ی کاهش ارزش ۳٫۹ درصد است.

مایکروسافت در ارائه‌ی نسخه‌ی نمایشی هوش مصنوعی بینگ داده‌های مالی شرکت یادشده را در سه‌ماهه‌ی سوم ۲۰۲۲ با نتایج Lulumeon مقایسه می‌کند. بینگ در ارائه‌ی داده‌های Lulumeon اشتباهات بیشتری مرتکب می‌شود و درنتیجه، مقایسه‌ی آن پر از بی‌دقتی و اطلاعات نادرست است.

بریتون نیز به اشتباهات ظاهری بینگ جدید در پرس‌وجوی مربوط به مزیت‌ها و معایب جاروبرقی پرفروش خانگی اشاره می‌کند. هوش مصنوعی مایکروسافت در این بخش توضیحاتی ارائه می‌دهد که با مشخصات محصول مذکور مطابقت ندارد؛ درحالی‌که با جست‌وجوی معمولی در گوگل یا حتی بینگ قدیمی، مشخصات دقیق جاروبرقی یادشده به‌وضوح نمایش داده خواهد شد.

به‌نظر می‌رسد بینگ جدید برای ارائه‌ پاسخ به درخواست‌های کاربران، از چندین منبع داده به‌طور هم‌زمان استفاده می‌کند. به‌عبارت‌دیگر، این ابزار منابع مختلف را خلاصه‌سازی و با یکدیگر ترکیب می‌کند؛ البته اشتباهات این هوش مصنوعی نشان می‌دهد ارزیابی کیفیت پاسخ‌های تولید شده با آن، چقدر سخت است.

اشتباهات هوش مصنوعی بینگ فقط به نسخه‌های نمایشی اولیه‌ی آن ختم نمی‌شود. درحال‌حاضر، هزاران نفر به این ابزار دسترسی دارند؛ به‌همین‌دلیل، برخی کاربران اشتباهات دیگری را در آن شناسایی کرده‌اند. در یکی از موضوعاتی که به‌صورت گروهی در ردیت مطرح شده است، بینگ جدید به‌اشتباه اعلام می‌کند که در سال ۲۰۲۲ به‌سر می‌بریم. هوش مصنوعی بینگ می‌گوید:

ظاهراً مایکروسافت از مشکلات مذکور اطلاع دارد. کیتلین رولستون، مدیر ارتباطات این شرکت می‌گوید:

سایر کاربران ردیت نیست اشتباهات مشابهی را شناسایی کرده‌اند. هوش مصنوعی بینگ با اطمینان و به‌طور نادرست بیان می‌کند که کرواسی در سال ۲۰۲۲، اتحادیه‌ی اروپا را ترک کرده است. وب‌سایت PCWorld نیز متوجه شد هوش مصنوعی جدید بینگ، توهین‌های قومیتی را به مردم آموزش می‌دهد. غول فناوری مستقر در ردموند اکنون درخواستی که به توهین‌های نژادی در نتایج جست‌وجوی منجر می‌شود، تصحیح کرده است.

رولستون توضیح می‌دهد:

سایر کاربران هوش مصنوعی بینگ دریافته‌اند این چت‌بات اغلب خود را سیدنی می‌نامد و این مسئله به‌خصوص در مواقعی بیشتر دیده می‌شود که کاربران قصد دارند هوش مصنوعی را به ارائه‌ی قوانین داخلی‌اش وادار کنند. رولستون می‌گوید:

ورج می‌گوید در هفته‌ی گذشته هنگام استفاده از چت‌بات هوش مصنوعی بینگ بارها با پاسخ‌های نادرست مواجه شده است. مایکروسافت بسیاری از مشکلات را به‌سرعت برطرف کرده است؛ اما همچنان در ارائه‌ی بسیاری از درخواست‌ها اشتباه می‌کند.

مایکروسافت به‌وضوح در مسیر توسعه‌ی هوش مصنوعی خود راهی طولانی در پیش دارد؛ جایی‌ که بینگ جدید می‌تواند با اطمینان بسیار زیاد پاسخ همه‌ی سؤالات و درخواست‌های کاربران را به‌درستی ارائه دهد. در گذشته نیز، اشتباهات مشابهی را در ChatGPT مشاهده کرده‌ایم؛ اما مایکروسافت این ویژگی را به‌طور مستقیم در موتور جست‌وجوی خود ارائه داده است و البته برخلاف ChatGPT از داده‌های به‌روز استفاده می‌کند. این شرکت تنظیمات زیادی را روی چت‌بات خود اِعمال کرده است تا سطح اشتباهات آن را به حداقل ممکن کاهش دهد.


هر آنچه میخواهید در اینجا بخوانید
شاید از نوشته‌های زیر خوشتان بیاید
نظر خود را درباره این پست بنویسید ...

منوی سریع