چتبات ChatGPT در هفتههای اخیر سروصدای زیادی به پا کرده و حالا رسما وارد دنیای تحقیقات علمی نیز شده است. طبق گزارش نشریه نیچر، اکنون ابزار هوش مصنوعی ChatGPT دستکم چهار مقاله علمی (منتشر شده و در مرحله بازبینی) را به نام خود میبیند. در همین حال، ورود ChatGPT به عرصه تحقیقات علمی باعث شده تا ویراستاران، محققان و ناشران نشریات و مجلات علمی در مورد جایگاه چنین ابزارهای هوش مصنوعی در تحقیقات علمی بحثهای کاملا جدی را آغاز کنند. در حقیقت، حالا جامعه علمی باید به یک سوال اساسی پاسخ دهند، اینکه آیا ذکر نام چتبات هوش مصنوعی به عنوان نویسنده در مقالات علمی شایسته است؟ از سوی دیگر، ناشران به دنبال بازنگری در خط مشیها و سیاستهای خود در رابطه با چتبات هستند.
ابزار هوش مصنوعی ChatGPT اوایل آذر (نوامبر ۲۰۲۲) از سوی شرکت OpenAI عرضه شد. این چتبات هم اکنون به صورت رایگان در دسترس کاربران است و تا به حال میلیونها کاربران از خدمات باورنکردنی آن که شامل نوشتن مقاله، مطالب وبلاگ و وبسایت و حتی داستان و شعر میشود استفاده کردهاند.
چتبات ChatGPT از سیستم پردازش زبان طبیعی موسوم به مدل زبانی بزرگ (LLM) بهره میبرد که توانایی خلق جملات کاملا باورپذیری را دارد. این ابزار هوش مصنوعی با تقلید از الگوهای آماری-زبانی موجود در یک پایگاه اطلاعاتی بسیار عظیم که از متون گردآوریشده از اینترنت به دست آمدهاند به این مهم دست پیدا میکند.
حال این چتبات نگرانیهای زیادی را در بخشهای مختلف آکادمیکی و علمی به وجود آورده است. در محافل دانشگاهی اکنون این سوال به وجود آمده که با روی کار آمدن این ابزار هوش مصنوعی چه آیندهای در انتظار مقالات دانشگاهی و تحقیقاتی خواهد بود؟
ناشران و مسئولان پایگاههای دادهی پیشانتشار در گفتگو با نیچر گفتهاند موافقاند که ابزارهای هوش مصنوعی مانند ChatGPT فاقد معیارهای لازم برای ذکر شدن به عنوان نویسنده مقالات علمی هستند. در واقع این ابزارهای هوش مصنوعی نمیتوانند مسئولیت درستی محتوا و امانتداری مقالات علمی را برعهده بگیرند. در همین حال برخی از ناشران عنوان کردهاند که میتوان مشارکت هوش مصنوعی در نوشتن مقالات علمی را در نقش دیگری به غیر از نویسنده ذکر کرد. در یک مورد، یکی از سردبیران نشریات علمی عنوان کرده که ذکر نام ChatGPT به عنوان نویسنده مشترک مقالهای علمی یک اشتباه ساده بوده و حالا تصحیح شده است.
نویسندگان هوش مصنوعی
نام ChatGPT در بین ۱۲ نویسندهای دیده میشود که مقالهای دربارهی استفاده از این چتبات برای آموزش پزشکی نوشتهاند. این مقاله اواخر آذر (دسامبر ۲۰۲۲) در وبگاه medRxiv، پایگاه اینترنتی مقالات پزشکی منتشر شده است.
ریچارد سِوِر، یکی از بنیانگذاران و معاون مدیر انتشارات کولد اسپرینگ هاربور در نیویورک میگوید که تیم medRxiv و bioRxiv وبسایت خواهر آن، حالا مشغول بحث در مورد استفاده از ابزارهای هوش مصنوعی مانند ChatGPT در نوشتن مقالات تحقیقاتی هستند. او همچنین اضافه میکند که توافقنامهها در این مورد ممکن است تغییر کنند.
سور میگوید: «ما باید بین نقش رسمی نویسنده یک متن علمی و مفهوم کلیتر مولف بهعنوان نویسنده یک سند، تمایز قائل شویم.» به باور سور، نویسندگان مسئولیت قانونی اثر را برعهده گرفته، بنابراین فقط انسانها باید در فهرست نویسندگان مقالات قرار بگیرند. البته انسانها ممکن است بخواهند بهصورت مخفیانه نام هوش مصنوعی را به عنوان نویسنده وارد نشریات آنلاین کنند، موردی که با مقالهی medRxiv اتفاق افتاد. قبلا نیز کسانی بودهاند که سعی کردهاند نام حیوانات خانگی، شخصیتهای خیالی و موارد دیگر را به عنوان نویسندگان مقالات علمی در نشریات و مقالات وارد کنند. اما این مسئله بیشتر از اینکه به خط مشی نشریات ارتباطی داشته باشد، نیازمند بررسی ساده اطلاعات مشارکتکنندگان مقالات است.
در همین حال در سرمقالهی این ماه نشریه Nurse Education in Practice نام چتبات هوش مصنوعی در کنار سیوبهان اوکانر، محقق فناوری سلامت از دانشگاه منچستر، به عنوان نویسنده مشترک ذکر شده بود. با این حال، راجر واتسون، سردبیر این نشریه گفت این موضوع صرفا یک اشتباه بوده و به زودی اصلاح خواهد شد. او مسئولیت این اشتباه را قبول کرده و عنوان کرده که چنین خطایی به دلیل تفاوت سیستم بررسی سرمقالهها نسبت به مقالات تحقیقاتی رخ داده است.
الکس ژاورونکوف، مدیر اجرایی Insilico Medicine، شرکت تحقیقات دارویی مبتنی بر هوش مصنوعی در هنگ کنگ است. این شرکت اخیرا نام ChatGPT را به عنوان یکی از نویسندگان مقالهای که آذر ماه در مجله Oncoscience منتشر شد ذکر کرده بود. ژاورونکوف میگوید که شرکت او تا به حال بیش از ۸۰ مقاله را که به وسیله هوش مصنوعی نوشته شدهاند، منتشر کرده است. او میگوید: «ما در این حوزه تازهوارد نیستیم.»
در مقاله اخیر مزایا و معایب مصرف داروی راپامایسین در چارچوب بحثی فلسفی به نام شرطبندی پاسکال مورد بحث قرار گرفت. ژاورونکوف میگوید ChatGPT مقالهای بسیار بهتر از نسلهای گذشته هوش مصنوعی نوشته است. او میگوید نشریه Oncoscience این مقاله را پس از درخواست وی از سردبیرش مورد داوری قرار داد. بااینحال مسئولان نشریه به درخواست نیچر برای اظهارنظر پاسخی ندادند.
سرانجام چهارمین مقالهی نوشتهشده با همکاری ابزار هوش مصنوعی را آلمیرا عثمانوویچ تونستروم، زیستشناس عصبی از بیمارستان دانشگاه سالگرینسکا در گوتنبرگ، سوئد با همکاری ابزار GPT-3 نوشته و در تیر ماه (جون ۲۰۲۲) در آرشیو مقالات بازبینی علمی فرانسوی موسوم به HAL ارسال کرده است. این مقاله به زودی در یکی از نشریات علمی معتبر منتشر خواهد شد. تونستروم میگوید اولین مجله علمی مقاله را رد کرد، اما مجله دوم پس از بازنویسیهایی که به درخواست بازبینها انجام گرفت، مقاله را پذیرفت.
خط مشیهای ناشران
سردبیران نشریات نیچر و ساینس میگویند ChatGPT از استانداردهای لازم برای نویسندگی برخوردار نیست. مگدالنا اسکیپر، سردبیر مجله نیچر میگوید: «اعطای عنوان نویسندگی مسئولیتی را برای اثر به همراه دارد که هیچکدام از سیستمهای پردازش زبان طبیعی دارای آن نیستند.» او همچنین عنوان میکند، نویسندگانی که از ابزارهای هوش مصنوعی در تهیه مقالات تحقیقاتی استفاده میکنند، باید در بخشهای دیگری به جز نویسندگی از خدمات هوش مصنوعی تشکر کنند.
هولدن تورپ، سردبیر خانواده نشریات ساینس در واشنگتن دیسی نیز در این رابطه اظهار داشت: «ما اجازه نمیدهیم که هوش مصنوعی به عنوان نویسنده مقالهای معرفی شود. استفاده از متونی که هوش مصنوعی تولید کرده بدون ارجاعات مناسب میتواند سرقت ادبی قلمداد شود.»
سابینا اَلم، مدیر اخلاق و صداقت نشر در گروه انتشاراتی تیلور و فرانسیس، لندن میگوید این انتشاراتی هماکنون در حال بازنگری در خطمشیهای خود است. او موافق است که نویسندگان مسئول اعتبار و امانت اثر خود هستند و هرگونه استفاده از ابزارهای هوش مصنوعی را باید در بخش قدردانیها ذکر کرد. الم همچنین عنوان میکند که تا به حال تیلور و فرانسیس هیچ مقالهای با نویسندگی مشترک ChatGPT دریافت نکردهاند.
اشتاین سیگوردسون، ستارهشناس از دانشگاه ایالتی پنسیلوانیا میگوید هیئت مدیرهی پایگاه علمی arXiv به بحث و گفتگو در مورد استفاده از هوش مصنوعی در مقالات تحقیقاتی نشستهاند تا در سیاستهای خود بازنگری کنند. او موافق است که نرمافزار نمیتواند نویسنده مقاله باشد. این امر تا حد زیادی به این دلیل است که همچون انسان نمیتواند با شرایط استفاده و حق توزیع محتوا موافقت کند. سیگوردسون از مقالات ارسالی به arXiv که در نوشتن آنها از ChatGPT استفاده شده است، اظهار بیاطلاعی کرد. اما گفت به زودی دستورالعملهای تازهای برای نویسندگان ارائه خواهد شد.
اصول اخلاقی هوش مصنوعی مولد
مت هاجکینسون، مدیر یکپارچگی پژوهشی در دفتر یکپارچگی تحقیقات بریتانیا در لندن میگوید در حال حاضر دستورالعملهای کاملا واضحی در مورد چارچوب نویسندگی وجود دارد که طبق آن، نام چتبات ChatGPT نباید به عنوان نویسنده مشترک مقالات ذکر شود. او میگوید، طبق یک دستورالعمل، نویسنده مشترک باید «در تهیهی مقاله مشارکت قابلتوجهی» داشته باشد که ممکن است با ابزارهایی مانند ChatGPT امکانپذیر باشد. اما نویسنده همچنین باید این توانایی را داشته باشد که موافقت کند نویسنده مشترک یک مقاله باشد و مسئولیت مقاله یا حداقل بخشی که در آن مشارکت داشته را برعهده بگیرد. او میگوید: «واقعا در بخش دوم است که دادن اعتبار نویسنده مشترک به یک ابزار هوش مصنوعی غیرممکن میشود.»
ژاورونکوف میگوید وقتی سعی کرد ازChatGPT برای نوشتن مقالات فنیتر نسبت به مقالات بیان دیدگاه استفاده کند، این چتبات مبتنی بر هوش مصنوعی در انجام آن ناموفق بود. او میگوید: «[چتبات] اکثر اوقات جملاتی که لزوما درست نبودند را بازگو میکرد و اگر از او چندین بار یک سوال بپرسید، هر بار پاسخهای متفاوتی به شما میدهد. بنابراین من قطعا نگران سوءاستفاده از این ابزار در دانشگاهها هستم. چون حالا افرادی بدون تخصص در حوزهای میتوانند مقالات علمی بنویسند.»