پلاس وی
2 سال پیش / خواندن دقیقه

مقاله نوشته‌شده با هوش مصنوعی ChatGPT دانشمندان را فریب می‌دهد

مقاله نوشته‌شده با هوش مصنوعی ChatGPT دانشمندان را فریب می‌دهد

به‌نقل از نسخه‌ی پیش‌انتشار مقاله‌ای که اواخر ماه دسامبر در وب‌سایت بیوآرکایو منتشر شد، چت‌بات هوش مصنوعی ChatGPT می‌تواند چنان چکیده‌های علمی جعلی و قانع‌کننده‌ای بنویسد که دانشمندان اغلب نمی‌توانند آن‌ها را شناسایی کنند. پژوهشگران درباره‌ی پیامد‌های این اتفاق برای علم اختلاف‌نظر دارند.

به‌گزارش نیچر، ساندرا واچر از دانشگاه آکسفورد بریتانیا که در‌زمینه‌ی فناوری و تنظیمگری مطالعه می‌کند و در پژوهش مشارکت نکرده است، با ابراز نگرانی درباره‌ی توانایی ChatGPT می‌گوید اگر اکنون در وضعیتی باشیم که متخصصان نتوانند تشخیص دهند چه چیز واقعی است یا نه، واسطه‌گری آن‌ها که برای راهنمایی ما در موضوعات پیچیده به‌شدت مورد‌نیاز است، بی‌اثر خواهد شد.

چت‌بات ChatGPT در پاسخ به درخواست‌های کاربران، متنی واقع‌بینانه و هوشمندانه خلق می‌کند. این چت‌بات مدل زبانی بزرگ و سامانه‌ای مبتنی‌بر شبکه‌های عصبی است که با دریافت مقادیر عظیمی از متون تولیدشده‌ی انسانی، یاد می‌گیرد وظیفه‌اش را انجام دهد. شرکت نرم‌افزاری OpenAI در سان‌فرانسیسکو کالیفرنیا، این ابزار را ۳۰ نوامبر منتشر کرد و استفاده از آن رایگان است.

از زمان انتشار ChatGPT، پژوهشگران با مسائل اخلاقی درباره‌ی استفاده از آن دست‌به‌گریبان بوده‌اند؛‌ زیرا تشخیص تفاوت بسیاری از متون خروجی آن با متن نوشته‌شده به‌دست انسان دشوار است. اکنون گروهی از پژوهشگران به‌سرپرستی کاترین گائو از دانشگاه نورث‌وسترن در شیکاگو با استفاده از این چت‌بات، چکیده‌های مقاله‌های پژوهشی مصنوعی تولید کرده‌اند تا دریابند آیا دانشمندان می‌توانند غیرواقعی‌بودن آن‌ها را تشخیص دهند یا نه.

پژوهشگران از چت‌بات خواستند تا ۵۰ چکیده‌ی پژوهشی پزشکی را براساس منتخبی از مقاله‌های منتشرشده در نشریات علمی معتبر ازجمله جاما، ژورنال پزشکی نیو انگلند، بی‌ام‌جی، لنست و نیچر مدیسن بنویسد. آن‌ها سپس با استفاده از شناساگر سرقت علمی و شناساگر خروجی هوش مصنوعی، متون تولیدشده را با چکیده‌های واقعی مقایسه کردند و از گروهی از پژوهشگران پزشکی خواستند تا چکیده‌های مصنوعی را تشخیص دهند.

نتیجه شگفت‌انگیز بود. جست‌وجوگر سرقت علمی با بررسی متون تولیدشده با ChatGPT حتی یک مورد سرقت علمی را شناسایی نکرد و میانگین امتیاز اصالت ۱۰۰ درصد را به آن‌ها داد. درمقابل، شناساگر خروجی هوش مصنوعی توانست ۶۶ درصد از چکیده‌های تولیدشده را شناسایی کند. بااین‌حال، داوران انسانی عملکرد چندان بهتری نداشتند. آن‌ها ۶۸ درصد از چکیده‌های تولیدشده و ۸۶ درصد از چکیده‌های واقعی را به‌درستی شناسایی کردند. به‌عبارت‌دیگر، دانشمندان به‌اشتباه ۳۲ درصد از چکیده‌های تولیدشده را واقعی و ۱۴ درصد از چکیده‌های واقعی را جعلی تشخیص دادند.

گائو و همکارانش در نسخه‌ی پیش‌انتشار مطالعه‌ی خود می‌گویند: «ChatGPT چکیده‌های علمی باورپذیری می‌نویسد. مرزهای استفاده‌ی اخلاقی و پذیرفتنی از مدل‌های زبانی بزرگ برای کمک به نوشتن متون علمی هنوز مشخص نیست.»

واچر می‌گوید اگر دانشمندان نتوانند صحت پژوهش‌های علمی را تعیین کنند، احتمالاً «عواقب وحشتناکی» درانتظارمان خواهد بود. به‌گفته‌ی او، متون تولیدشده علاوه‌بر مشکل‌سازبودن برای پژوهشگران، پیامدهایی برای کل جامعه نیز خواهند داشت؛ زیرا پژوهش‌های علمی نقش بزرگی در جوامع ما ایفا می‌کنند. به‌عنوان مثال، تصمیم‌های سیاسی ممکن است برپایه‌ی پژوهشی نادرست اتخاذ شوند.

آرویند نارایانان، دانشمند کامپیوتر در دانشگاه پرینستون در نیوجرسی می‌گوید: «بعید است هیچ دانشمند مهمی از ChatGPT برای تولید چکیده استفاده کند.» او می‌افزاید اینکه می‌توان چکیده‌های تولیدشده را شناسایی کرد یا نه، پرسشی «بی‌اهمیت» است. پرسش اصلی این است که آیا این ابزار می‌تواند چکیده‌ای صحیح و قانع‌کننده ایجاد کند یا خیر؟ چت‌بات نمی‌تواند چنین کاری کند و درنتیجه، مزیت استفاده از آن بسیار جزئی است.

ایرن سلیمان در شرکت هوش مصنوعی هاگینگ فیس درباره‌ی تأثیرات اجتماعی هوش مصنوعی پژوهش می‌کند. او نگران هرگونه اتکا به مدل‌های زبانی بزرگ برای تفکر علمی است. او می‌گوید این مدل‌ها براساس اطلاعات گذشته آموزش داده می‌شوند؛ درحالی‌که پیشرفت اجتماعی و علمی اغلب ازطریق تفکرات نو حاصل می‌شود که با افکار گذشته تفاوت دارند.»

نویسندگان پیشنهاد می‌کنند افرادی که مقاله‌های پژوهشی و کنفرانسی را ارزیابی می‌کنند، باید سیاست‌هایی را برای جلوگیری از به‌کارگیری متون تولیدشده با هوش مصنوعی وضع کنند. اگر مؤسسه‌ها قرار باشد به استفاده از این فناوری در مواقع خاص مجاز باشند، باید قوانین شفافی درباره‌ی آشکارسازی متون تولیدشده وضع کنند.

اوایل ماه جاری، چهلمین کنفرانس بین‌المللی یادگیری ماشین اعلام کرد که مقاله‌های نوشته‌شده با ChatGPT و سایر ابزارهای زبانی هوش مصنوعی ممنوع است. این کنفرانس یکی از همایش‌های بزرگ درباره‌ی هوش مصنوعی محسوب می‌شود که قرار است ماه ژوئیه در هاوایی برگزار شود

سلیمان می‌افزاید در زمینه‌هایی که اطلاعات جعلی می‌تواند ایمنی افراد را به‌خطر بیندازد (مانند مسائل پزشکی)، مجلات ممکن است رویکردی دقیق‌تر برای تأیید صحت اطلاعات اتخاذ کنند. نارایانان می‌گوید راه‌حل‌های این مسائل نباید روی خود چت‌بات متمرکز شود؛ بلکه انگیزه‌های نادرستی که به این رفتار منجر می‌شوند، مانند رویه‌های استخدامی و ارتقای رتبه در دانشگاه‌ها به‌واسطه‌ی شمارش مقالات بدون توجه به کیفیت و تأثیر آن‌ها، باید در کانون توجه باشند.»


هر آنچه میخواهید در اینجا بخوانید
شاید از نوشته‌های زیر خوشتان بیاید
نظر خود را درباره این پست بنویسید ...

منوی سریع