رقابت در حوزهی هوش مصنوعی بهخصوص با روی کار آمدن چتبات ChatGPT شرکت OpenAI و سرمایهگذاریهای هنگفت مایکروسافت روی این استارتاپ بسیار داغ شده است و گوگل نیز با معرفی چتبات بارد سعی دارد در این زمینه از رقیب خود عقب نماند. علاوهبراین بهنظر میرسد بسیاری از سرمایهگذاران و شرکتهای دیگر حوزهی فناوری تمایل بسیار زیادی به صرف هزینه در سیستمهای هوش مصنوعی دارند.
بهگفتهی برخی کارشناسان، چرخهی تبلیغاتی پیرامون چتباتهای هوش مصنوعی محکوم به چیزی است که سرمایهگذاران بیش از همه از آن میترسند؛ یک حباب.
گری ان اسمیت استاد اقتصاد فلچر جونز در کالج پومونا و جفری لی فانک مشاور مستقل فناوری مینویسند:
مقالهی کارشناسان، به این استدلال متکی است که بسیاری از سرمایهگذاران بهسادگی فناوری زیربنایی مدلهای زبانی را اشتباه میگیرند. درحالیکه چتباتها و بهخصوص ChatGPT و موتور جستوجوی جدید بینگ بهطور قابلتوجهی گفتار شبیه انسان را تولید میکنند اما در واقع تحلیلی برای پاسخهای خود ارائه نمیدهند و درکی از گفتههای خود ندارند.
درواقع چتباتهای هوش مصنوعی مثل قابلیت پیشبینی متن در گوشیهای هوشمند، فقط پیشبینی میکنند که چه کلماتی میتوانند در ادامهی یک جمله قرار بگیرند. هر پاسخ سریع یک معادلهی احتمال است و درواقع این فناوری درکی از آنچه بیان میکند ندارد. ابزارهای زیربنایی که منجر به پدیدهی توهم در هوش مصنوعی میشوند، شکستی بسیار جدی هستند که پیچیدگی آنها افزایش یافته است. تمایل ماشینها برای اینکه قابل اطمینان بهنظر برسند، گاهی تا جایی پیش میرود که حتی با ارائهی پاسخهای نادرست، لحنی تهدیدآمیز دارند تا کاربر را به پذیرش پاسخهای خود ترغیب کنند.
اسمیت و فانک میگویند:
بهنوشتهی فیوچریسم، بسیاری از افرادی که به هوش مصنوعی خوشبین هستند، به طعنهها و اشتباهات خندهدار و گاهی هولناک این فناوری در حال رشد، اشاره میکنند. آنها اغلب میگویند که دادههای بیشتر، ازجمله اطلاعاتی که ازطریق استفاده از هوش مصنوعی بهدست میآید، راهکاری برای رفع مشکل بررسی حقایق چتباتها خواهد بود.
مشکلات کنونی هوش مصنوعی، روایتی وسوسهانگیز برای سرمایهگذاران این حوزه است که ترجیح میدهند خودرویی با لاستیک پنچر خریداری کنند تا خودرویی که بهطور کلی نمیتواند طبق وعدهی سازندهی آن کار کند. بههرحال اسمیت و فانک اعتقاد دارند دادههای بیشتر میتواند مشکلات بسیار واضح چتباتها را افزایش دهد.
کارشناسان میگویند آموزش مدلهای هوشمند مصنوعی با پایگاه دادهی بزرگتر، مشکل ذاتی آنها را حل نمیکند زیرا LLMها غیرقابل اعتماد هستند و معنی کلمات تولیدشدهی خود را نمیدانند.
بهعبارت دیگر، اگر چتباتهای هوش مصنوعی همچنان به ارائهی اطلاعات نادرست ادامه دهند در آیندهی نزدیک با حجم بسیار زیادی از اطلاعاتی مواجه خواهیم شد که به سختی میتوان آنها را در قالب صحیح و غلط طبقهبندی کرد. در این شرایط اطلاعات قابلاعتماد کمتر دردسترس قرار خواهد گرفت و اینترنت بهنوعی از خودش تقلید خواهد کرد.
مطمئناً برداشت کارشناسانی مثل اسمیت و فانک بدبینانه است و شاید درک افراد خوشبین به هوش مصنوعی صحیح باشد. بسیاری از سرمایهگذاریها برای توسعهی مدلهای زبانی بزرگ برای اطمینان از این است که محصولات مبتنیبر هوش مصنوعی به دست مصرفکنندگان برسد و توجهی به این موضوع وجود ندارد که آیا چنین محصولات واقعاً در بلندمدت همهچیز را تغییر خواهند داد یا خیر.