پلاس وی
2 سال پیش / خواندن دقیقه

برخی از کارشناسان معتقدند هوش مصنوعی یک حباب است

برخی از کارشناسان معتقدند هوش مصنوعی یک حباب است

کارشناسان می‌گویند اعتماد به هوش مصنوعی نشانه‌ی درک و تعریف نادرست از این فناوری است.

رقابت در حوزه‌ی هوش مصنوعی به‌خصوص با روی کار آمدن چت‌بات ChatGPT شرکت OpenAI و سرمایه‌گذاری‌های هنگفت مایکروسافت روی این استارتاپ بسیار داغ شده است و گوگل نیز با معرفی چت‌بات بارد سعی دارد در این زمینه از رقیب خود عقب نماند. علاوه‌براین به‌نظر می‌رسد بسیاری از سرمایه‌گذاران و شرکت‌های دیگر حوزه‌ی فناوری تمایل بسیار زیادی به صرف هزینه در سیستم‌های هوش مصنوعی دارند.

به‌گفته‌ی برخی کارشناسان، چرخه‌ی تبلیغاتی پیرامون چت‌بات‌های هوش مصنوعی محکوم به چیزی است که سرمایه‌گذاران بیش‌ از همه از آن می‌ترسند؛ یک حباب.

گری ان اسمیت استاد اقتصاد فلچر جونز در کالج پومونا و جفری لی فانک مشاور مستقل فناوری می‌نویسند:

مقاله‌ی کارشناسان، به این استدلال متکی است که بسیاری از سرمایه‌گذاران به‌سادگی فناوری زیربنایی مدل‌های زبانی را اشتباه می‌گیرند. درحالی‌که چت‌بات‌ها و به‌خصوص ChatGPT و موتور جست‌وجوی جدید بینگ به‌طور قابل‌توجهی گفتار شبیه انسان را تولید می‌کنند اما در واقع تحلیلی برای پاسخ‌های خود ارائه نمی‌دهند و درکی از گفته‌های خود ندارند.

درواقع چت‌بات‌های هوش مصنوعی مثل قابلیت پیش‌بینی متن در گوشی‌های هوشمند، فقط پیش‌بینی می‌کنند که چه کلماتی می‌توانند در ادامه‌ی یک جمله قرار بگیرند. هر پاسخ سریع یک معادله‌ی احتمال است و درواقع این فناوری درکی از آنچه بیان می‌کند ندارد. ابزارهای زیربنایی که منجر به پدیده‌ی توهم در هوش مصنوعی می‌شوند، شکستی بسیار جدی هستند که پیچیدگی آن‌ها افزایش یافته است. تمایل ماشین‌ها برای اینکه قابل اطمینان به‌نظر برسند، گاهی تا جایی پیش می‌رود که حتی با ارائه‌ی پاسخ‌های نادرست، لحنی تهدیدآمیز دارند تا کاربر را به پذیرش پاسخ‌های خود ترغیب کنند.

اسمیت و فانک می‌گویند:

به‌نوشته‌ی فیوچریسم، بسیاری از افرادی که به هوش مصنوعی خوش‌بین هستند، به طعنه‌ها و اشتباهات خنده‌دار و گاهی هولناک این فناوری در حال رشد، اشاره می‌کنند. آن‌ها اغلب می‌گویند که داده‌های بیشتر، ازجمله اطلاعاتی که ازطریق استفاده از هوش مصنوعی به‌دست می‌آید، راهکاری برای رفع مشکل بررسی حقایق چت‌بات‌ها خواهد بود.

مشکلات کنونی هوش مصنوعی، روایتی وسوسه‌انگیز برای سرمایه‌گذاران این حوزه است که ترجیح می‌دهند خودرویی با لاستیک پنچر خریداری کنند تا خودرویی که به‌طور کلی نمی‌تواند طبق وعده‌ی سازنده‌ی آن کار کند. به‌هرحال اسمیت و فانک اعتقاد دارند داده‌های بیشتر می‌تواند مشکلات بسیار واضح چت‌بات‌ها را افزایش دهد.

کارشناسان می‌گویند آموزش مدل‌های هوشمند مصنوعی با پایگاه داده‌ی بزرگ‌تر، مشکل ذاتی آن‌ها را حل نمی‌کند زیرا LLMها غیرقابل اعتماد هستند و معنی کلمات تولیدشده‌ی خود را نمی‌دانند.

به‌عبارت دیگر، اگر چت‌بات‌های هوش مصنوعی همچنان به ارائه‌ی اطلاعات نادرست ادامه دهند در آینده‌ی نزدیک با حجم بسیار زیادی از اطلاعاتی مواجه خواهیم شد که به سختی می‌توان آن‌ها را در قالب صحیح و غلط طبقه‌بندی کرد. در این شرایط اطلاعات قابل‌اعتماد کمتر دردسترس قرار خواهد گرفت و اینترنت به‌نوعی از خودش تقلید خواهد کرد.

مطمئناً برداشت کارشناسانی مثل اسمیت و فانک بدبینانه است و شاید درک افراد خوش‌بین به هوش مصنوعی صحیح باشد. بسیاری از سرمایه‌گذاری‌ها برای توسعه‌ی مدل‌های زبانی بزرگ برای اطمینان از این است که محصولات مبتنی‌بر هوش مصنوعی به دست مصرف‌کنندگان برسد و توجهی به این موضوع وجود ندارد که آیا چنین محصولات واقعاً در بلندمدت همه‌چیز را تغییر خواهند داد یا خیر.


هر آنچه میخواهید در اینجا بخوانید
شاید از نوشته‌های زیر خوشتان بیاید
نظر خود را درباره این پست بنویسید ...

منوی سریع