OpenAI مدل هوش مصنوعی جدید خود موسوم به GPT-4 را معرفی کرد. قابلیتهای این مدل فعلاً در مرحلهی ارزیابی است. بههرحال بسیاری از افراد بهدلیل عدم باز بودن این هوش مصنوعی، ابراز ناامیدی کردهاند.
شرکت OpenAI تعداد زیادی از نتایج آزمایشی GPT-4 را بههمراه چندین پیشنمایش جذاب بهاشتراک گذاشته، اما هیچ اطلاعاتی درمورد دادههای مورداستفاده برای آموزش این سیستم، هزینههای انرژی موردنیاز یا سختافزار و روشهای خاص توسعهی آن ارائه نداده است.
بسیاری از افراد فعال در حوزهی هوش مصنوعی، از تصمیمگیری OpenAI برای عدم اشتراکگذاری جزئیات مربوط به GPT-4 انتقاد کردهاند زیرا اعتقاد دارند این اقدام، اهداف تأسیس شرکت مذکور را بهعنوان یک سازمان تحقیقاتی، از بین خواهد برد. برخی افراد میگویند سیاستهای کاری جدید OpenAI، توسعهی تدابیر امنیتی درمقابل انواع تهدیدات ناشی از سیستمهای هوش مصنوعی مثل GPT-4 را دشوار میکند.
بن اشمیت، معاون طراحی اطلاعات OpenAI با انتشار توییتی گفت: «من فکر میکنم میتوانیم GPT-4 را یکی از نقاط عطف OpenAI بنامیم.» گفتنی است در مقالهای ۹۸ صفحهای معرفی این مدل هوش مصنوعی، هیچ جزئیاتی درمورد محتویات آموزشی مورد استفاده برای این مدل وجود ندارد.
ایلیا سوتسکور، دانشمند ارشد و یکی از بنیانگذاران OpenAI در مصاحبهی اخیر خود با ورج گفت دلایل شرکت متبوعش برای عدم اشتراکگذاری اطلاعات بیشتر درمورد GPT-4، ترس از رقابت و ترس از امنیت است.
سوتسکور میگوید: «درحال حاضر امنیت هنوز نسبتبه جنبهی رقابتی اهمیت ندارد اما این روند تغییر خواهد کرد. مدلهای هوش مصنوعی ما بسیار قدرتمند هستند و روزبهروز قویتر میشوند. دربرخی مواقع اگر کسی بخواهد آسیببی به این مدلها وارد کند، اینکار بسیار آسان خواهد بود و با افزایش تواناییها، منطقی است که نخواهید اطلاعات زیادی درمورد روند ساخت آن ارائه دهید».
اتخاذ رویکرد بسته، تغییری بسیار واضح برای OpenAI محسوب میشود؛ استارتاپی که تیم کوچکی از متخصصان و سرمایهگذاران فناوری ازجمله ایلان ماسک و سم آلتمن، آن را در سال ۲۰۱۵ راهاندازی کردند. سوتسکور با انتشار پستی وبلاگی اعلام کرد هدف OpenAI، ایجاد ارزش برای همه است و نه فقط برای سرمایهگذاران و به همیندلیل بهطور آزادانه با دیگران همکاری خواهد کرد. این شرکت بهعنوان یک سازمان غیرانتفاعی تأسیس شد و مدتی بعد روند فعالیت خود را کاملاً تغییر داد تا بتواند سرمایههای چند میلیارد دلاری جذب کند.
سوتسکور در پاسخ به این سؤال که چرا OpenAI رویکرد خود را برای اشتراکگذاری تحقیقاتش تغییر داده است گفت: «ما قبلاً اشتباه کردیم. واضح است که اشتباه کردیم. اگر مانند ما اعتقاد دارید که هوش عمومی مصنوعی (AGI) زمانی بسیار قدرتمند خواهد شد، در چنین شرایطی باز بودن پروژه منطقی بهنظر نمیرسد و این رویکرد ایدهی بدی است. من انتظار دارم طی سالهای آينده همه این موضوع را درک کنند که هوش مصنوعی منبعباز، کار عاقلانهای نیست.»
جامعهی هوش مصنوعی نسبت به تغییر رویکرد اصلی OpenAI نظرات متفاوتی دارند. شایان ذکر است که معرفی GPT-4 فقط چند هفته پس از آن انجام شد که اطلاعاتی درمورد مدل هوش مصنوعی متا موسومبه LLaMA فاش و بحثهایی درمورد تهدیدات و مزیتهای تحقیقات منبعباز مطرح شد.
اشمیت از مدیرات Nomic AI میگوید: «اگر مردم بخواهند درمواردی که مدلهای هوش مصنوعی مثل GPT-4 قادر به تصمیمگیری نیستند، فرضیاتی داشته باشند، باید از روش عملکرد آن مطلع باشند. بهعنوان مثال من به یک وسیلهی نقلیهی خودران که بدون تجربه در آبوهوای برفی آموزش داده شده است، اعتماد نخواهم کرد.»
از طرف دیگر ویلیام فالکون، مدیرعامل لایتنینگ AI و خالق ابزار منبعباز PyTorch Lightning میگوید رویکرد بستهی OpenAI را ازنظر تجاری درک میکند. او باور دارد اقدام OpenAI سابقهی بدی برای جامعهی هوش مصنوعی ایجاد کرده است و میتواند اثرات مضری بهدنبال داشته باشند.
فالکون میگوید: «اگر مدل GPT-4 به بیراهه کشید شود و اطلاعات نادرستی ارائه دهد، جامعه باید چه واکنشی به آن نشان دهد؟ محققان اخلاقی چگونه میتوانند راهکارهای خود را برای رفع مشکلات احتمالی این مدلها ارائه دهند؟»
یکی دیگر از دلایل OpenAI برای مخفی نگهداشتن جزئیات توسعهی GPT-4، مسئولیت قانونی این شرکت است. مدلهای زبانی هوش مصنوعی براساس مجموعه دادههای متنی بسیار عظیم آموزش داده میشوند و بسیاری از اطلاعات خود را نیز از وب بهدست میآورند؛ منبعی که بهاحتمال زیاد شامل محتوای دارای قانون حقنشر است. ابزارهای تولیدتصویر مبتنیبر هوش مصنوعی که با محتوای منتشرشده در اینترنت آموزش دیدهاند نیز دقیقاً بههمین دلیل با چالشهای قانونی مواجه شدهاند.
سوتسکور در برخی موارد با منتقدان OpenAI موافق است. بهعنوان مثال او قبول دارد که رویکرد منبعباز به توسعهی بهتر مدلهای هوش مصنوعی کمک میکند.
بحثهای مرتبط با اشتراکگذاری تحقیقات OpenAI با تغییرات سرسامآور در حوزهی هوش مصنوعی مطرح میشوند. از یکطرف غولهای فناوری مثل مایکروسافت و گوگل در تلاش هستند تا هرچه زودتر ویژگیهای هوش مصنوعی را به محصولات خود اضافه کنند و اغلب نگرانیهای اخلاقی گذشته را کنار بگذارند. از طرف دیگر روندهای تحقیقاتی مرتبط با این فناوری بهسرعت درحال پیشرفت است و بههمین دلیل نگرانیهایی درمورد تبدیل شدن آن به یک تهدید جدی و قریبالوقوع وجود دارد.
جس ویتلستون، رئیس سیاست هوش مصنوعی در اندیشکدهی بریتانیا اعتقاد دارد متعادل کردن فشارهای مختلف در روند توسعهی هوشمند مصنوعی، چالشی بسیار جدی است و احتمالاً به مشارکت سازمانهای تنظیمکننده نیاز دارد.
ویتلسون طی مصاحبه با ورج گفت: «ما شاهد قابلیتهای چشمگیر هوش مصنوعی هستیم و بهطور کلی من نگران پیشرفت سریعتر این ویژگیها هستم زیرا باید بتوانیم با آنها سازگار شویم. دلایل OpenAI برای عدم اشتراکگذاری جزئیات درمورد GPT-4 خوب هستند اما نگرانیهای زیادی درمورد متمرکز شدن قدرت در دنیای هوش مصنوعی وجود دارد.»
ویتلسون همچنین اعتقاد دارد تصمیمگیری درمورد باز بودن یا بسته بودن تحقیقات هوش مصنوعی نباید برعهدهی شرکتها یا افراد خاصی باشد.