پلاس وی
2 سال پیش / خواندن دقیقه

بنیانگذار OpenAI: رویکرد قبلی ما برای اشتراک‌گذاری تحقیقات هوش مصنوعی اشتباه بود

بنیانگذار OpenAI: رویکرد قبلی ما برای اشتراک‌گذاری تحقیقات هوش مصنوعی اشتباه بود

OpenAI مدل GPT-4 را معرفی کرد اما انتقادات زیادی علیه این شرکت به‌دلیل عدم ارائه‌ی اطلاعات دقیق درمورد این مدل مطرح شده است.

OpenAI مدل هوش مصنوعی جدید خود موسوم‌ به GPT-4 را معرفی کرد. قابلیت‌های این مدل فعلاً در مرحله‌ی ارزیابی است. به‌هرحال بسیاری از افراد به‌دلیل عدم باز بودن این هوش مصنوعی، ابراز ناامیدی کرده‌اند.

شرکت OpenAI تعداد زیادی از نتایج آزمایشی GPT-4 را به‌همراه چندین پیش‌نمایش جذاب به‌اشتراک گذاشته، اما هیچ اطلاعاتی درمورد داده‌های مورداستفاده برای آموزش این سیستم، هزینه‌های انرژی موردنیاز یا سخت‌افزار و روش‌های خاص توسعه‌ی آن ارائه نداده است.

بسیاری از افراد فعال در حوزه‌ی هوش مصنوعی، از تصمیم‌گیری OpenAI برای عدم اشتراک‌گذاری جزئیات مربوط به GPT-4 انتقاد کرده‌اند زیرا اعتقاد دارند این اقدام، اهداف تأسیس شرکت مذکور را به‌عنوان یک سازمان تحقیقاتی، از بین خواهد برد. برخی افراد می‌گویند سیاست‌های کاری جدید OpenAI، توسعه‌ی تدابیر امنیتی درمقابل انواع تهدیدات ناشی‌ از سیستم‌های هوش مصنوعی مثل GPT-4 را دشوار می‌کند.

بن اشمیت، معاون طراحی اطلاعات OpenAI با انتشار توییتی گفت: «من فکر می‌کنم می‌توانیم GPT-4 را یکی از نقاط عطف OpenAI بنامیم.» گفتنی است در مقاله‌ای ۹۸ صفحه‌ای معرفی این مدل هوش مصنوعی، هیچ جزئیاتی درمورد محتویات آموزشی مورد استفاده برای این مدل وجود ندارد.

ایلیا سوتسکور، دانشمند ارشد و یکی از بنیان‌گذاران OpenAI در مصاحبه‌ی اخیر خود با ورج گفت دلایل شرکت متبوعش برای عدم اشتراک‌گذاری اطلاعات بیشتر درمورد GPT-4، ترس از رقابت و ترس از امنیت است.

سوتسکور می‌گوید: «درحال حاضر امنیت هنوز نسبت‌به جنبه‌ی رقابتی اهمیت ندارد اما این روند تغییر خواهد کرد. مدل‌های هوش مصنوعی ما بسیار قدرتمند هستند و روز‌به‌روز قوی‌تر می‌شوند. دربرخی مواقع اگر کسی بخواهد آسیببی به این مدل‌ها وارد کند، این‌کار بسیار آسان خواهد بود و با افزایش توانایی‌ها، منطقی است که نخواهید اطلاعات زیادی درمورد روند ساخت آن ارائه دهید».

اتخاذ رویکرد بسته، تغییری بسیار واضح برای OpenAI محسوب می‌شود؛ استارتاپی که تیم کوچکی از متخصصان و سرمایه‌گذاران فناوری ازجمله ایلان ماسک و سم آلتمن، آن را در سال ۲۰۱۵ راه‌اندازی کردند. سوتسکور با انتشار پستی وبلاگی اعلام کرد هدف OpenAI، ایجاد ارزش برای همه است و نه فقط برای سرمایه‌گذاران و به همین‌دلیل به‌طور آزادانه با دیگران همکاری خواهد کرد. این شرکت به‌عنوان یک سازمان غیرانتفاعی تأسیس شد و مدتی بعد روند فعالیت خود را کاملاً تغییر داد تا بتواند سرمایه‌های چند میلیارد دلاری جذب کند.

سوتسکور در پاسخ به این سؤال که چرا OpenAI رویکرد خود را برای اشتراک‌گذاری تحقیقاتش تغییر داده است گفت: «ما قبلاً اشتباه کردیم. واضح است که اشتباه کردیم. اگر مانند ما اعتقاد دارید که هوش عمومی مصنوعی (AGI) زمانی بسیار قدرتمند خواهد شد، در چنین شرایطی باز بودن پروژه منطقی به‌نظر نمی‌رسد و این رویکرد ایده‌ی بدی است. من انتظار دارم طی سال‌های آينده همه این موضوع را درک کنند که هوش مصنوعی منبع‌باز، کار عاقلانه‌ای نیست.»

جامعه‌ی هوش مصنوعی نسبت‌ به تغییر رویکرد اصلی OpenAI نظرات متفاوتی دارند. شایان‌ ذکر است که معرفی GPT-4 فقط چند هفته پس‌ از آن انجام شد که اطلاعاتی درمورد مدل هوش مصنوعی متا موسوم‌به LLaMA فاش و بحث‌هایی درمورد تهدیدات و مزیت‌های تحقیقات منبع‌باز مطرح شد.

اشمیت از مدیرات Nomic AI می‌گوید: «اگر مردم بخواهند درمواردی که مدل‌های هوش مصنوعی مثل GPT-4 قادر به تصمیم‌گیری نیستند، فرضیاتی داشته باشند، باید از روش عملکرد آن مطلع باشند. به‌عنوان مثال من به یک وسیله‌ی نقلیه‌ی خودران که بدون تجربه در آب‌وهوای برفی آموزش داده شده است، اعتماد نخواهم کرد.»

از طرف دیگر ویلیام فالکون، مدیرعامل لایتنینگ AI و خالق ابزار منبع‌باز PyTorch Lightning می‌گوید رویکرد بسته‌ی OpenAI را ازنظر تجاری درک می‌کند. او باور دارد اقدام OpenAI سابقه‌ی بدی برای جامعه‌ی هوش مصنوعی ایجاد کرده است و می‌تواند اثرات مضری به‌دنبال داشته باشند.

فالکون می‌گوید: «اگر مدل GPT-4 به بیراهه کشید شود و اطلاعات نادرستی ارائه دهد، جامعه باید چه واکنشی به آن نشان دهد؟ محققان اخلاقی چگونه می‌توانند راهکارهای خود را برای رفع مشکلات احتمالی این مدل‌ها ارائه دهند؟»

یکی دیگر از دلایل OpenAI برای مخفی نگه‌داشتن جزئیات توسعه‌ی GPT-4، مسئولیت قانونی این شرکت است. مدل‌های زبانی هوش مصنوعی براساس مجموعه داده‌های متنی بسیار عظیم آموزش داده می‌شوند و بسیاری از اطلاعات خود را نیز از وب به‌دست می‌آورند؛ منبعی که به‌احتمال زیاد شامل محتوای دارای قانون حق‌نشر است. ابزارهای تولیدتصویر مبتنی‌بر هوش مصنوعی که با محتوای منتشرشده در اینترنت آموزش دیده‌اند نیز دقیقاً به‌همین دلیل با چالش‌های قانونی مواجه شده‌اند.

سوتسکور در برخی موارد با منتقدان OpenAI موافق است. به‌عنوان مثال او قبول دارد که رویکرد منبع‌باز به توسعه‌ی بهتر مدل‌های هوش مصنوعی کمک می‌کند.

بحث‌های مرتبط با اشتراک‌گذاری تحقیقات OpenAI با تغییرات سرسام‌آور در حوزه‌ی هوش مصنوعی مطرح می‌شوند. از یک‌طرف غول‌های فناوری مثل مایکروسافت و گوگل در تلاش هستند تا هرچه زودتر ویژگی‌های هوش مصنوعی را به محصولات خود اضافه کنند و اغلب نگرانی‌های اخلاقی گذشته را کنار بگذارند. از طرف دیگر روندهای تحقیقاتی مرتبط با این فناوری به‌سرعت درحال پیشرفت است و به‌همین دلیل نگرانی‌هایی درمورد تبدیل شدن آن به یک تهدید جدی و قریب‌الوقوع وجود دارد.

جس ویتلستون، رئیس سیاست‌ هوش مصنوعی در اندیشکده‌ی بریتانیا اعتقاد دارد متعادل کردن فشارهای مختلف در روند توسعه‌ی هوشمند مصنوعی، چالشی بسیار جدی است و احتمالاً به مشارکت سازمان‌های تنظیم‌کننده‌ نیاز دارد.

ویتلسون طی مصاحبه با ورج گفت: «ما شاهد قابلیت‌های چشم‌گیر هوش مصنوعی هستیم و به‌طور کلی من نگران پیشرفت سریع‌تر این ویژگی‌ها هستم زیرا باید بتوانیم با آن‌ها سازگار شویم. دلایل OpenAI برای عدم اشتراک‌گذاری جزئیات درمورد GPT-4 خوب هستند اما نگرانی‌های زیادی درمورد متمرکز شدن قدرت در دنیای هوش مصنوعی وجود دارد.»

ویتلسون همچنین اعتقاد دارد تصمیم‌گیری درمورد باز بودن یا بسته بودن تحقیقات هوش مصنوعی نباید برعهده‌ی شرکت‌ها یا افراد خاصی باشد.


هر آنچه میخواهید در اینجا بخوانید
شاید از نوشته‌های زیر خوشتان بیاید
نظر خود را درباره این پست بنویسید ...

منوی سریع