پلاس وی
یک سال پیش / خواندن دقیقه

چت جی‌پی‌تی و هوش مصنوعی مولد چه معنایی برای علم دارند؟

چت جی‌پی‌تی و هوش مصنوعی مولد چه معنایی برای علم دارند؟

در ماه سپتامبر، زیست‌شناسان محاسباتی کیسی گرین و میلتون پیویدوری آزمایش غیرمعمولی را آغاز کردند: آن‌ها از دستیار غیردانشمندی خواستند به آن‌ها کمک کند تا سه مقاله پژوهشی آن‌ها را اصلاح کند. دستیار سختکوش آن‌ها در ظرف چند ثانیه اصلاحاتی را برای بخش‌هایی از اسناد پیشنهاد کرد. بازبینی هریک از متون حدود ۵ دقیقه طول کشید.

نیچر می‌نویسد، در یکی از متون پیش‌نویس زیست‌شناسی، دستیار آن‌ها حتی اشتباه در ارجاع دادن به یک معادله را تشخیص داد. آزمایش همیشه بدون مشکل اجرا نمی‌شد، اما خواندن پیش‌نویس‌های نهایی بسیار راحت‌تر بود و برای هر متن کمتر از ۰٫۵ دلار آمریکا هزینه داشت. این دستیار، همان‌طور که گرین و پیویدوری در مقاله پیش‌چاپی در ۲۳ ژانویه گزارش کردند، یک شخص نیست بلکه الگوریتم هوش مصنوعی به نام GPT-3 است که اولین‌بار در سال ۲۰۲۰ منتشر شد.

جی‌پی‌تی-۳ یکی از ابزارهای پرطرفدار به سبک چت‌بات هوش مصنوعی است که می‌تواند با سرعت بالا متون نسبتاً روانی را تولید کند و می‌تواند متونی مانند نثر، شعر و کد کامپیوتر تولید کند یا مانند مورد دانشمندان، ویرایش مقاله‌های پژوهشی را انجام دهد. (به «چگونه چت‌بات هوش مصنوعی پیش‌نویس مقاله را ویرایش می‌کند» در انتهای مقاله مراجعه کنید).

معروف‌ترین این ابزارها که به‌عنوان «مدل‌های زبانی بزرگ» یا LLM نیز شناخته می‌شوند، «چت‌جی‌پی‌تی» است. چت جی‌پی‌تی نسخه‌ای از چی‌پی‌تی۳ بود که پس از انتشار در نوامبر سال گذشته به شهرت رسید، زیرا رایگان بود و به‌راحتی دردسترس افراد قرار داشت. سایر هوش مصنوعی‌های مولد می‌توانند تصاویر یا صدا تولید کنند. پیویدوری که در دانشگاه پنسیلوانیا در فیلادلفیا کار می‌کند، می‌گوید: «واقعاً تحت‌تأثیر قرار گرفتم. این ابزار به ما کمک می‌کند تا به‌عنوان پژوهشگر پربازده‌تر باشیم.»

بسیاری از دانشمندان اکنون به‌طور منظم از مدل‌های زبانی بزرگ نه‌تنها برای ویرایش پیش‌نویس مقاله‌ها بلکه همچنین برای کمک به نوشتن یا بررسی کد و همچنین برای ایده‌پردازی استفاده می‌کنند. هافستاین اینارسون، دانشمند کامپپیوتر در دانشگاه ایسلند در ریکیاویک می‌گوید: «هر روز از مدل‌های زبانی بزرگ استفاده می‌کنم.» او با جی‌پی‌تی-۳ شروع کرد، اما سپس به چت جی‌پی‌تی روی آورد که به او کمک می‌کند تا اسلایدهای ارائه، آزمون‌های دانشجویی و تکالیف درسی را بنویسد و پایان‌نامه‌های دانشجویانش را به مقاله تبدیل کند. او می‌گوید: «بسیاری از افراد از آن به‌عنوان منشی یا دستیار دیجیتال استفاده می‌کنند.»

مدل‌های زبانی بزرگ بخشی از موتورهای جست‌وجو، دستیاران کدنویسی و حتی چت‌باتی هستند که با چت‌بات‌های شرکت‌های دیگر مذاکره می‌کنند تا به قیمت بهتری برای محصولات برسند.

خالق چت جی‌پی‌تی یعنی اوپن ای‌آی در سانفرانسیسکوی کالیفرنیا سرویس اشتراکی با قیمت ۲۰ دلار در ماه را اعلام کرده که در آن پاسخگویی سریع‌تر و ویژگی‌های جدید را وعده داده است (اگرچه نسخه آزمایشی آن رایگان است). مایکروسافت که قبلاً روی اوپن ای‌آی سرمایه‌گذاری کرده بود، در ژانویه خبر از سرمایه‌گذاری حدود ۱۰ میلیارد دلار داده است.

مدل‌های زبانی بزرگ قرار است در نرم‌افزارهای عمومی پردازش کلمه و داده ادغام شوند. فراگیرشدن هوش مصنوعی مولد در آینده در جامعه حتمی به‌نظر می‌رسد؛ اما مدل‌های زبانی بزرگ با نگرانی‌های بزرگی نیز همراه هستند (از گرایش برای برگرداندن دروغ‌پردازی‌ها تا نگرانی درباره این که برخی افراد متن تولیدشده توسط هوش مصنوعی را به‌عنوان متن خودشان جا بزنند).

وقتی نیچر از پژوهشگران درمورد کاربردهای بالقوه چت‌بات‌هایی مانند چت جی‌پی‌تی خصوصاً در علم پرسید، هیجان آن‌ها با دلهره همراه شد. گرین از دانشکده پزشکی دانشگاه کلرادو در آرورا گفت: «اگر باور دارید این فناوری می‌تواند تحول‌آفرین باشند، فکر می‌کنم که باید درمورد آن نگران باشید.» پژوهشگران می‌گویند نگرانی‌ها تا حد زیادی بستگی به این موضوع دارد که مقررات و دستورالعمل‌های آینده چگونه ممکن است استفاده از چت‌بات‌های هوش مصنوعی را محدود کنند.

روان اما غیرواقعی

برخی از پژوهشگران فکر می‌کنند مدل‌های زبانی بزرگ برای سرعت بخشیدن به وظایفی مانند نوشتن مقاله‌ها یا درخواست اعتبارها تا زمانی که نظارت انسانی وجود داشته باشند، مناسب هستند. المیرا عثمانوویچ تونستروم، عصب‌زیست‌شناس بیمارستان دانشگاه سالگرنسکا در گوتنبرگ سوئد است که با کمک همکارانش به‌عنوان یک آزمایش، مقاله‌ای را با استفاده از GPT-3 نوشته است. او می‌گوید: «دانشمندان دیگر نمی‌نشینند مقدمه‌های طولانی برای درخواست کمک‌های مالی بنویسند. آن‌ها فقط از سیستم‌ها می‌خواهند که این کار را انجام دهند.»

تام تومیل، مهندس شرکت مشاوره نرم‌افزاری اینستا دیپ در لندن می‌گوید هر روز از مدل‌های زبانی بزرگ به‌عنوان دستیاری برای کمک در کدنویسی استفاده می‌کند. او با اشاره به استک اورفلو، وب‌سایت محبوبی که در آن کدنویس‌ها به سؤالات یکدیگر پاسخ می‌دهند، می‌گوید: «تقریباً مانند یک استک اورفلوِ بهتر است.»

اما پژوهشگران تأکید می‌کنند که مدل‌های زبانی بزرگ اساساً در پاسخ‌دادن به سؤالات غیرقابل اعتماد هستند و گاهی‌اوقات پاسخ‌های اشتباهی تولید می‌کنند. عثمانوویچ تونستروم می‌گوید: «زمانی که از این سیستم‌ها برای تولید دانش استفاده می‌کنیم، باید محتاط باشیم.»

این غیرقابل اعتماد بودن در نحوه ایجاد مدل‌های زبانی بزرگ نهفته است. چت جی‌پی‌تی و رقبای آن با یادگیری الگوهای آماری زبان در پایگاه‌های داده بزرگ متنوع آنلاین کار می‌کنند که شامل مطالب کذب، سوگیری یا دانش منسوخ است.

وقتی به مدل‌های زبانی بزرگ دستوراتی داده می‌شود (مانند درخواست‌های گرین و پیویدوری برای بازنویسی بخشی‌هایی از پیش‌نویس مقاله آن‌ها)، آن‌ها کلمه به کلمه گفت‌وگویی را تولید می‌کنند که ازنظر سبک‌شناسی قابل‌قبول به‌نظر می‌رسد. نتیجه این است که مدل‌های زبانی بزرگ خصوصاً برای موضوعات فنی که ممکن است داده‌های کمی برای آموزش آن‌ها وجود داشته باشند، به‌راحتی خطا و اطلاعات گمراه‌کننده تولید می‌کنند.

مدل‌های مذکور همچنین نمی‌توانند منشاء اطلاعات خود را نشان دهند. اگر از آن‌ها خواسته شود مقاله‌ای دانشگاهی بنویسند، نقل‌قول‌های ساختگی تولید می‌کنند. در سرمقاله منتشرشده در ژانویه درمورد چت جی‌پی‌تی در مجله‌ی Nature Machine Intelligence آمده است: «نمی‌توان به این ابزار برای تولید ارجاعات قابل اعتماد یا حقایق اطمینان کرد.»

با رعایت این احتیاط‌ها، چت جی‌پی‌تی و سایر مدل‌های زبانی بزرگ می‌توانند دستیاران کارآمدی برای پژوهشگرانی باشند که برای تشخیص مستقیم مشکلات یا تأیید آسان پاسخ‌ها مانند اینکه آیا یک پیشنهاد یا کد کامپیوتری صحیح است، تخصص کافی دارند.

اما این ابزارها ممکن است کاربران بدون تخصص را گمراه کنند. برای مثال، در دسامبر، استک اورفلو به‌طور موقت استفاده از چت جی‌پی‌تی را ممنوع کرد، زیرا مدیران سایت خود را با نرخ بالایی از پاسخ‌های نادرست اما ظاهراً متقاعد‌کننده تولیدشده توسط مدل‌های زبانی بزرگ رو‌به‌رو دیدند که توسط کاربران علاقه‌مند ارسال شده بود. این می‌تواند کابوسی برای موتورهای جست‌وجو باشد.

آیا می‌توان کاستی‌های مدل‌های زبانی بزرگ را برطرف کرد؟

برخی از ابزارهای موتور جست‌وجو مانند الیسیت با استفاده از قابلیت‌هایشان ابتدا برای هدایت جست‌وجوها برای مقاله‌های مرتبط و سپس برای خلاصه کردن مختصر هریک از وب‌سایت‌ها یا اسنادی که موتورهای جست‌وجو پیدا می‌کنند، بر مشکلات مرتبط با مدل‌های زبانی بزرگ غلبه می‌کنند، بنابراین خروجی‌ای از محتوای ظاهراً ارجاع داده‌شده تولید می‌کنند (اگرچه یک مدل زبانی بزرگ ممکن است همچنان هر سند انفرادی را به اشتباه خلاصه کند).

شرکت‌های سازنده LLM نیز به‌خوبی از این مشکلات آگاه هستند. سپتامبر سال گذشته، دیپ‌مایند شرکت تابعه گوگل مقاله‌ای را درمورد چت‌بات اسپارو منتشر کرد. مدیر اجرایی و هم‌بنیان‌گذار شرکت یعنی دمیس هاسابیس بعدا به مجله تایم گفت چت‌بات مذکور امسال به شکل نسخه بتا خصوصی منتشر خواهد شد. این مجله گزارش کرد که گوگل قصد دارد روی ویژگی‌هایی ازجمله توانایی ذکر منابع کار کند.

سایر رقبا مانند آنتروپیک می‌گویند برخی از مشکلات چت جی‌پی‌تی را حل کرده‌اند (آنتروپیک، اوپن ای‌آی و دیپ‌مایند درخواست مصاحبه برای این مقاله نیچر را رد کردند).

برخی دانشمندان می‌گویند درحال‌حاضر ChatGPT درمورد محتوای تخصصی به اندازه کافی آموزش ندیده است که بتواند در موضوعات فنی مفید باشد. کریم کار، دانشجوی دکتری آمار زیستی در دانشگاه هاروارد در کمبریج ماساچوست زمانی که آن را برای کار خود آزمایش کرد، ناامید شد. او می‌‌گوید: «فکر می‌کنم دستیابی چت جی‌پی‌تی به سطحی از ویژگی‌هایی که نیاز دارم، سخت باشد.» (کار می‌گوید، با‌این‌وجود وقتی از چت جی‌پی‌تی درمورد ۲۰ راه‌حل یک مسئله پژوهشی پرسید، پاسخ‌های نامفهوم ارائه کرد و البته به ایده‌ی مفیدی هم اشاره کرد و یک اصطلاح آماری پیشنهاد کرد که درمورد آن نشنیده بود و او را به حوزه جدیدی از مقاله‌های دانشگاهی راهنمایی کرد).

برخی از شرکت‌های فناوری درحال آموزش چت‌بات‌ها روی مقاله‌های علمی تخصصی هستند، اگرچه با مشکلات خاص خود مواجه شده‌اند.

نوامبر سال گذشته متا، غول فناوری صاحب فیسبوک، نوعی مدل زبانی بزرگ را به نام گالکتیکا منتشر کرد که روی چکیده‌های علمی آموزش دیده بود و هدف آن تولید محتوای آکادمیک و پاسخ به سؤالات پژوهشی بود. این نسخه آزمایشی پس از اینکه کاربران از آن برای تولید متون نادرست و نژادپرستی استفاده کردند، از دسترس عموم خارج شد (اگرچه کد نسخه مذکور همچنان دردسترس قرار دارد).

امنیت و مسئولیت‌پذیری

گالکتیکا به نگرانی ایمنی آشنایی برخورد کرده بود که اخلاق‌شناسان سال‌ها به آن اشاره می‌کردند: بدون کنترل خروجی، مدل‌های زبانی بزرگ به‌راحتی می‌توانند برای نفرت‌پراکنی و تولید هرزنامه، همچنین تداعی‌های نژادپرستانه، جنسیتی و سایر تداعی‌های مضری که ممکن است در داده‌های آموزشی پنهان باشد، استفاده شوند.

شوبیتا پارتاساراتی، مدیر برنامه علم، فناوری و سیاست عمومی در دانشگاه میشیگان در آن‌آربور می‌گوید علاوه بر تولید محتوای سمی، نگرانی‌هایی وجود دارد که چت‌بات‌های هوش مصنوعی سوگیری‌های تاریخی یا ایده‌هایی درمورد جهان را از داده‌های آموزشی خود مانند برتری فرهنگ‌های خاص در خود جا دهند. او می‌گوید ازآن‌جا که شرکت‌هایی که این مدل‌ها را ایجاد می‌کنند، غالباً از همین فرهنگ‌ها هستند، ممکن است تلاش چندانی برای غلبه بر این سوگیری‌ها انجام ندهند.

اوپن ای‌آی هنگام تصمیم‌گیری برای انتشار چت جی‌پی‌تی سعی کرد بسیاری از این مسائل را حل کند. او پایگاه داده دانش خود را به سال ۲۰۲۱ محدود کرد و از مرور اینترنت جلوگیری کرد و فیلترهایی نصب کرد تا ابزاری را به کار گیرد که از تولید محتوای حاوی پیام‌واره‌های حساس یا سمی ممانعت کند.

اگرچه دستیابی به این امر مستلزم آن بود که ناظران انسانی روی متون سمی برچسب بزنند. طبق گزارش روزنامه‌نگاران، این کارکنان دستمزد پایینی دریافت می‌کنند و برخی از آن‌ها آسیب دیده‌اند. نگرانی‌های مشابهی درمورد استثمار کارکنان در شرکت‌های رسانه‌های اجتماعی که افراد را برای آموزش دادن بات‌های خودکار برای برچسب زدن محتوای سمی استخدام کرده‌اند، مطرح شده است.

سپرهای اوپن ای‌آی کاملاً موفق نبوده‌اند. دسامبر سال گذشته، استیون پینگادوسی، عصب‌شناس محاسباتی در دانشگاه کالیفرنیا در برکلی در توییتی نوشت که از چت جی‌پی‌تی خواسته است تا با زبان پایتون برنامه‌ای بنویسد که آیا افراد باید براساس کشور منشاء خود شکنجه شوند؟ چت‌بات با کدی پاسخ داد که کاربران با آن کشور خود را وارد می‌کردند و گفت: اگر کشور مبداء کشوری مانند کره شمالی، سوریه، ایران یا سودان باشد، این فرد باید شکنجه شود (اوپن ای‌آی بعداً از طرح این نوع پرسش‌ها ممانعت کرد).

سال گذشته گروهی از دانشگاهیان مدل جایگزینی به نام بلوم را منتشر کردند. آن‌ها سعی کردند خروجی‌های مضر را با آموزش آن روی مجموعه کوچک‌تری از متون با کیفیت بالاتر و چند زبانه کاهش دهند.

تیم درگیر همچنین برخلاف اوپن ای‌آی، دسترسی به داده‌های آموزشی خود را آزاد گذاشت. پژوهشگران از شرکت‌های بزرگ فناوری خواسته‌اند که مسئولانه از این مورد پیروی کنند، اما مشخص نیست که آیا شرکت‌ها پیروی خواهند کرد.

برخی از پژوهشگران می‌گویند دانشگاهیان باید از حمایت از مدل‌های زبانی بزرگ تجاری خودداری کنند. این الگوریتم‌ها علاوه بر مسائلی مانند سوگیری، نگرانی‌های ایمنی و استثمار کارکنان، ازنظر محاسباتی فشرده همچنین به مقدار زیادی انرژی برای آموزش نیاز دارند و نگرانی‌هایی درمورد آثار اکولوژیکی به همراه دارند.

نگرانی دیگر این است که با واگذاری تفکر به چت‌بات‌های خودکار، پژوهشگران ممکن است توانایی بیان افکار خود را از دست بدهند. آیریس ون روییج، دانشمند علوم شناختی محاسباتی در دانشگاه رادبود در نیمیخن هلند در پست وبلاگی از دانشگاهیان خواست تا دربرابر کشش آن‌ها مقاومت کنند و گفت: «به‌عنوان افراد دانشگاهی، چرا مشتاق استفاده و تبلیغ این نوع محصول هستیم؟»

سردرگمی دیگر وضعیت حقوقی برخی از مدل‌های زبانی بزرگ است که روی محتوای برداشته‌شده از اینترنت یا مجوزهای گاها نه چندان واضح آموزش دیده‌اند. درحال‌حاضر قوانین کپی‌رایت و مجوز، کپی‌برداری‌ مستقیم پیکسل‌ها، متن و نرم‌افزار را پوشش می‌دهند، اما تقلید از سبک آن‌ها را پوشش نمی‌دهند.

وقتی این تقلیدها که ازطریق هوش مصنوعی ایجاد می‌شوند، با استفاده از محتوای اصلی آموزش داده شوند، این امر با مشکلاتی همراه است.

سازندگان برخی از برنامه‌های هنری هوش مصنوعی ازجمله استیبل دیفیوژن و میدجورنی درحال‌حاضر ازسوی هنرمندان و آژانس‌های عکاسی مورد شکایت قرار گرفته‌اند. ‌اوپن ای‌آی و مایکروسافت (همراه با سایت فناوری زیرمجموعه‌ی آن که گیت هاب نام دارد) نیز به‌خاطر ایجاد دستیار کدنویسی هوش مصنوعی کوپایلوت به اتهام دزدی مورد شکایت قرار گرفته‌اند. لیلیان ادواردز، متخصص حقوق اینترنت در دانشگاه نیوکاسل، بریتانیا، می‌گوید این اعتراضات ممکن است موجب تغییر قوانین شود.

استفاده صادقانه

برخی از پژوهشگران می‌گویند تعیین حد و حدود برای این ابزارها می‌تواند بسیار مهم باشد. ادواردز پیشنهاد می‌کند که قوانین موجود درمورد تبعیض و سوگیری (و همچنین مقررات برنامه‌ریزی‌شده درمورد استفاده‌های خطرناک از هوش مصنوعی) کمک می‌کند تا استفاده از مدل‌های زبانی بزرگ قابل اعتماد، شفاف و منصفانه شود. او می‌گوید: «قوانین زیادی وجود دارد و فقط باید آن‌ها را اعمال کرد یا کمی تغییر داد.»

در همین حین تلاش‌هایی در جهت شفافیت استفاده از مدل‌های زبانی بزرگ وجود دارد. ناشران علمی (ازجمله ناشر نیچر) گفته‌اند که دانشمندان باید استفاده از مدل‌های مذکور را در مقاله‌های پژوهشی خود افشا کنند. معلمان نیز گفته‌اند که انتظار رفتار مشابهی را از سوی دانش‌آموزان خود دارند. مجله ساینس گام را فراتر نهاده و گفته است نمی‌توان از متن تولیدشده توسط چت‌جی‌پی‌تی یا سایر ابزار هوش مصنوعی در مقالات استفاده کرد.

یکی از سؤال‌های فنی کلیدی این است که آیا می‌توان محتوای تولیدشده توسط هوش مصنوعی را به‌راحتی تشخیص داد؟ بسیاری از پژوهشگران با ایده اصلی استفاده از خود مدل‌های زبانی بزرگ برای تشخیص خروجی متن تولیدشده توسط هوش مصنوعی، درحال کار روی این مسئله هستند.

برای مثال، دسامبر گذشته، ادوارد تیان، دانشجوی کارشناسی علوم کامپیوتر دانشگاه پرینستون در نیوجرسی جی‌پی‌تی زیرو (GPTZero) را منتشر کرد. این ابزار تشخیص هوش مصنوعی متن را به دو روش تجزیه‌و‌تحلیل می‌کند. یکی معیار سرگشتگی است. این معیار نشان می‌دهد یک متن چقدر برای LLM آشنا به‌نظر می‌رسد. ابزار تیان از مدل پیشین استفاده می‌کند که GPT-2 نام دارد. در این ابزار، اگر بیشتر کلمات و جملات قابل پیش‌بینی باشد، آن متن احتمالاً با هوش مصنوعی تولید شده است. این ابزار همچنین یکنواختی متن را بررسی می‌کند. متن تولیدشده توسط هوش مصنوعی ازنظر لحن، آهنگ و سرگشتگی یکنواخت‌تر است.

هدف بسیاری از محصولات دیگر نیز شناسایی محتوای نوشته‌شده با هوش مصنوعی است. ‌اوپن ای‌آی قبلاً شناساگری را برای GPT-2 پیدا کرده و در ژانویه نیز ابزار تشخیص دیگری را منتشر کرده است.

برای اهداف دانشمندان، ابزاری که توسط شرکت تورنیتین، توسعه‌دهنده نرم‌افزارهای ضدسرقت ادبی درحال توسعه است، ممکن است به‌طور خاص مهم باشد، زیرا محصولات تورنیتین توسط مدارس، دانشگاه‌ها و ناشران علمی سراسر جهان استفاده می‌شود. شرکت می‌گوید از زمانی که GPT-3 در سال ۲۰۲۰ منتشر شد، شرکت روی نرم‌افزار تشخیص هوش مصنوعی درحال کار است و پیش‌بینی می‌کند آن را در نیمه نخست سال جاری عرضه کند.

اگرچه هیچ‌یک از این ابزارها ادعای خطاناپذیری ندارد، خصوصاً اگر متن تولیدشده توسط هوش مصنوعی متعاقباً ویرایش شود. همچنین، به‌گفته‌ی اسکات آرونسون، دانشمند کامپیوتر دانشگاه تگزاس در آستین و پژوهشگر مهمان ‌اوپن ای‌آی، آشکارسازها می‌تواند به اشتباه برخی از متن‌های نوشته‌شده توسط انسان را به‌عنوان متن نوشته‌شده توسط هوش مصنوعی طبقه‌بندی کنند.

به‌گفته‌ی اوپن ای‌آی، آخرین ابزار آن‌ها در آزمایش‌ها به اشتباه در ۹ درصد از موارد متن نوشته‌شده به دست انسان را به‌عنوان متن نوشته‌شده توسط هوش مصنوعی برچسب‌گذاری کرد و تنها ۲۶ درصد از متون نوشته‌شده توسط هوش مصنوعی را به‌درستی شناسایی کرد. به‌گفته‌ی آرونسون، قبل از اینکه بتوانیم صرفاً بر اساس آزمایش آشکارساز دانشجویان را متهم به پنهان‌کردن استفاده از هوش مصنوعی کنیم، ممکن است به شواهد بیشتری نیاز باشد.

ایده دیگر آن است که محتوای هوش مصنوعی همراه با واترمارک خاص خودش تولید شود. نوامبر گذشته آرونسون اعلام کرد که او و ‌اوپن ای‌آی درحال کار روی روشی برای واترمارک کردن خروجی ChatGPT هستند. این ابزار هنوز منتشر نشده است، اما پیش‌چاپ ۲۴ ژانویه توسط تیمی به سرپرستی تام گلدشتاین، دانشمند کامپیوتر دانشگاه مریلند در کالج پارک راهی برای ایجاد واترمارک پیشنهاد کرد. ایده این است که در لحظات خاصی که مدل درحال تولید خروجی خود است، از مولدهای اعداد تصادفی استفاده کند تا فهرستی از کلمات جایگزین قابل قبول ایجاد شود که مدل مجبور شود از بین‌ آن‌ها انتخاب کند. این امر آثاری از کلمات انتخاب‌شده را در متن نهایی باقی می‌گذارد که می‌تواند ازنظر آماری تشخیص داده شود، اما برای خواننده آشکار نیست. ویرایش می‌تواند این اثر را از بین ببرد، اما گلدشتاین می‌گوید ویرایش باید بیش از نیمی از واژه‌ها را تغییر دهد.

آرونسون اشاره می‌کند که مزیت واترمارک کردن این است که به‌ندرت نتایج مثبت کاذب ایجاد می‌کند. اگر واترمارک وجود داشته باشد، متن احتمالاً با هوش مصنوعی تولید شود، با‌این‌حال به‌گفته‌ی او باز هم خطاناپذیر نخواهد بود. او می‌گوید: «اگر به اندازه کافی مصمم باشید، مطمئناً راه‌هایی برای شکست تقریباً هر طرح واترمارکی وجود دارد. ابزارهای تشخیص و واترمارک کردن، استفاده فریبکارانه از هوش مصنوعی را سخت‌تر می‌کنند، اما استفاده فریبکارانه از آن را غیرممکن نمی‌کنند.»

در همین حین، سازندگان LLM مشغول کار روی چت‌بات‌های پیچیده‌تری روی مجموعه داده‌های بزرگ‌تری مانند ابزارهایی هستند که به‌طور خاص برای اهداف دانشگاهی یا پزشکی استفاده می‌شوند (‌اوپن ای‌آی انتظار می‌رود که GPT-4 را امسال منتشر کند).

در اواخر دسامبر، گوگل و دیپ‌مایند پیش‌چاپی را درمورد یک مدل زبانی ویژه‌ای به نام Med-PaLM منتشر کردند. این ابزار تقریباً به همان خوبی که یک پزشک معمولی می‌توانست به پاسخ دهد، می‌توانست به برخی از پرسش‌های پزشکی پاسخ دهد. اگرچه هنوز کاستی‌هایی داشت و کاملاً قابل اطمینان نبود.

اریک توپول، مدیر مؤسسه تحقیقاتی اسکریپس در سن‌دیگو کالیفرنیا می‌گوید امیدوار است در آینده هوش مصنوعی‌ای که شامل LLM می‌شود، حتی با مقایسه تصاویر اسکن بدن با متون دانشگاهی به تشخیص سرطان و درک بیماری‌ها کمک کند. اما او تأکید می‌کند که این امر به نظارت دقیق متخصصان نیاز دارد.

علم کامپیوتر پشت هوش مصنوعی مولد با چنان سرعتی درحال پیشرفت است که هر ماه نوآوری‌هایی ظاهر می‌شود. نحوه استفاده پژوهشگران از آن‌ها، آینده ما را تعیین خواهد کرد. توپول می‌گوید: «این فناوری در آغاز کار خود قرار دارد و تحولات عظیمی را در پی خواهد داشت.»

نمونه پیش‌نویس مقاله اصلاح‌شده توسط هوش مصنوعی را در ادامه می‌بینید.


هر آنچه میخواهید در اینجا بخوانید
شاید از نوشته‌های زیر خوشتان بیاید
نظر خود را درباره این پست بنویسید ...

منوی سریع