درحالیکه افراد در سرتاسر جهان هنوز نظرات متفاوتی در درک و پذیرش تأثیرات هوش مصنوعی مثل چتبات ChatGPT دارند، دانشمندان به استفاده از قابلیتهای مدلهای هوش مصنوعی مولد از پیش آموزشدیده ادامه میدهد. بهگفتهی ساینتیفیک آمریکن، یکی از جدیدترین کاربردهای مدلهای مبتنیبر GPT، تفسیر مستقیم تفکرات انسان است.
یک تیم تحقیقاتی با همکاری دانشگاه تگزاس مدل GPT جدیدی توسعه داده که جزئیات آن در مقالهای در مجلهی Nature منتشر شده است. این مدل فعالیت مغز افراد را ازطریق جریان خون تفسیر میکند. فناوری مذکور که با نام GPT-1 شناخته میشود، به محققان اجازه میدهد به آنچه کاربران شنیده یا تصویر میکنند، دسترسی داشته باشند و بدین منظور نیازی به جراحی یا استفاده از دستگاهها و تجهیزات پیچیده نیست.
محققان خاطرنشان میکنند بهدلیل استفاده از تکنیک fMRI در GPT-1، این مدل نمیتواند برخی کلمات خاص که امکان دارد در ذهن افراد باشد را تجزیهوتحلیل کند. از آنجا که فناوری مذکور در سطح بالاتری از انتزاع کار میکند، یعنی به جای اینکه معنا را جستجو کند معنا را از فعالیت مغزی افراد بیرون میکشد و درک میکند، برخی از جزئیات همگام تجزیهوتحلیل تفکرات از بین میروند. بهعنوان مثال یکی از شرکتکنندگان در این تحقیق به صدای ضبطشدهای گوش داد که میگفت: «من هنوز گواهینامهی رانندگی ندارم» اما پردازش دادههای fMRI تولید شده از لحظهای که این فرد کلمات مذکور را شنید، جملهی اصلی را به «او هنوز رانندگی را شروع نکرده است» تغییر داد. بدین ترتیب GPT-1 فعلاً نمیتواند افکار ما را بهصورت کلمه به کلمه رونویسی کند اما معنی واقعی آنها را درک میکند.
اما مدل هوش مصنوعی تفسیرکنندهی افکار انسان سؤال بسیار مهمی را در ذهن ایجاد میکند: این تکنولوژی به کجا ختم خواهد شد؟
ازنظر تئوری، فناوری بهخودی خود مخرب نیست. TomsHardware مینویسد، تکنولوژی نوعی مفهوم است که میتواند برای دستیابی به هدف مورد استفاده قرار گیرد. GPT-1 میتواند به بیماران ALS کمک کند تا با دیگران بهتر ارتباط برقرار کنند. علاوهبراین فناوریهایی مثل مدل مذکور میتوانند برای ثبت افکار انسانها مورد استفاده قرار گیرند و فضای جدیدی برای خودسازی باز کند.
اما همهی کاربردهای GPT-1 سودمند نیستد و بهعنوان مثال میتوان از آن برای استخراج مستقیم اطلاعات مغز از سوژهای که تمایلی به ارائهی تفکراتش ندارد استفاده کرد. ازطرفی روش استفادهی نسبتاً آسان از این تکنولوژی هم مفید است و هم مضر.
محققان در مقالهی خود به احتمال سوءاستفاده از فناوری GPT-1 اشاره کردهاند و توضیحاتی درمورد تأثیرات منفی آن ارائه دادهاند. اکنون بهنظر میرسد به مرحلهای رسیدهایم که حتی افکار ما نیز دیگر در امان نیستند و هوش مصنوعی توانایی استخراج تفکرات ما را هم بهدست آورده است.