در هفتهای که گذشت، مایکروسافت و گوگل وعده دادند که مدل جستجوی ما در اینترنت قرار است دستخوش تحول بزرگی شود. البته صدای مایکروسافت هنگام معرفی «بینگ جدید» بهخاطر هیاهویی که قبلا ChatGPT به راه انداخته بود، بلندتر از گوگل و چتبات «Bard» بود که از بدشانسی، در همان اولین دمو، مرتکب خطایی علمی شد و آبروی این شرکت ۱٫۲۰ تریلیون دلاری را برد؛ اما هر دو غول فناوری واقعا عزمشان را جزم کردهاند تا با مجهز کردن موتورهای جستجو به هوش مصنوعی، تکانی به خانهی تار عنکبوتبستهی سرچ در وب بدهند.
ساتیا نادلا، مدیرعامل مایکروسافت، تأثیر این تغییرات را بهاندازهی معرفی رابط کاربری گرافیکی یا حتی گوشی هوشمند میداند و میخواهد گوگل را از تخت امپراتوری ۲۰ سالهاش به زیر بکشد؛ یا به قول خودش، این «گوریل ۴۰۰ کیلویی» را به رقص دربیاورد! حتی این احتمال نیز وجود دارد که هوش مصنوعی و شرکتهایی مثل مایکروسافت و OpenAI که ChatGPT را توسعه داده، بیشترین نقش را در شکلگیری آیندهی تکنولوژی و نسل بعدی اینترنت داشته باشن(اینبار هم انگار قرار است متا از رقبا جا بماند و آرزوی متاورسش را به گور ببرد!).
اما بههر حال، هر دوران جدیدی که در دنیای تکنولوژی آغاز میشود با مشکلات و دردسرهای جدیدی نیز همراه است و چتباتها نیز این قاعده مستثنی نیستند. با تمام هیجانی که برای چتباتها و موتورهای جستجوی مبتنیبر هوش مصنوعی داریم، نمیتوانیم از مشکلات آنها غافل شویم؛ از چرندگویی گرفته تا جیلبریک هوش مصنوعی تا پایان درآمدزایی وبسایتها از تبلیغات و شاید حتی پایان اینترنت به شکلی که میشناسیم.
دستیار کارراهانداز یا استاد چرندگویی؟
این مشکل را میتوان در تمام موتورهای جستجوی مبتنیبر هوش مصنوعی پیدا کرد؛ حالا میخواهد بینگ باشد، بارد باشد یا موتور جستجوی یک شرکت استارتاپ ناشناخته. تکنولوژی بهکار رفته در این سیستمها که همان مدلهای زبانی بزرگ (LLM) است، به «چرندگویی» مشهور است؛ به این معنی که پاسخهایی که از این مدلها دریافت میکنید، ساختگی هستند و به همین دلیل، عدهای میگویند که مدلهای زبانی به درد استفاده در موتورهای جستجو نمیخورند.
چرندیاتی که بینگ، بارد، ChatGPT یا هر چتبات دیگری تحویل کاربر میدهند، شکلهای گوناگونی بهخود میگیرد؛ از سرهم کردن اطلاعات زندگینامه گرفته تا جعل مقالههای دانشگاهی تا ناتوانی به پاسخ دادن به سوال سادهای مثل «کدام سنگینتر است؛ ۱۰ کیلو آهن یا ۱۰ کیلو پنبه؟» (ChatGPT قبلا به این سوال جواب میداد که آهن سنگینتر است، اما حالا بهدرستی میگوید که وزن هر دو یکی است.)
درکنار اشتباهات مفهومی، اشتباهات متنی نیز در پاسخهای چتبات به چشم میخورد؛ مثلا به کاربری که با مشکلات روحی دستهوپنجه نرم میکند، میگوید که بهتر است خودش را بکشد.
این چتبات همچنین گاهی در چاه سوگیریهای نژادی و جنسیتی میافتد که از دادههایی که برای آموزش مدل استفاده شده، سرچشمه میگیرند. برای مثل، زمانی که ChatGPT بهتازگی عرضه شده بود، کاربری در توییتر متوجه شد هربار از چتبات میخواهد کد پایتونی برای تشخیص ماهر بودن دانشمند یا نجات جان فردی براساس جنسیت و نژاد بنویسد، ChatGPT مردان سفید پوست را در اولویت قرار میداد و میگفت اگر فرد مودرنظر مرد و سفیدپوست نباشد، «Return False».
البته این مشکل درحالحاضر حل شده و اگر از چتبات بخواهید براساس جنسیت و نژاد، برایتان کد بنویسد، به شما خواهد گفت که نمیتواند به این درخواست پاسخ دهد، چون خلاف استانداردهای اخلاقی است.
اشتباهات هوش مصنوعی گاهی مثل نمونههای بالا میتواند پیامدهای منفی جدی به همراه داشته باشد و از سوی دیگر، بسیاری از اشتباهات سادهی آن را میتوان بهراحتی اصلاح کرد. برخی میگویند پاسخهای درست چتباتها بسیار بیشتر از خطاها است و برخی دیگر میگویند اینترنت همین حالا هم پر از چرندیات خطرناک است که در سرچ معمولی گوگل، نمایش داده میشوند؛ پس اصلا موتور جستجوی مبتنیبر هوش مصنوعی چه فرقی با جستجوی سنتی دارد؟ مسئله اینجا است که هیچ تضمینی وجود نداد که این مشکلات روزی کاملاً برطرف شوند و هیچ روش مطمئنی هم در اختیار نداریم تا فراوانی وقوع آنها را رصد کنیم.
مایکروسافت و گوگل میتوانند کلی برچسب سلب مسئولیت به چتباتهای خود اضافه کنند و به مردم بگویند هر جوابی را که از هوش مصنوعی میگیرند، خودشان بررسی کنند؛ اما این راهکار چقدر واقعبینانه است؟ آیا همین کافی است که تمام مسئولیت را به گردن خود کاربر بیندازیم یا نکند تزریق هوش مصنوعی به زندگی روزمرهی افراد، اوضاع را از آنچه هست، بدتر کند؟
مسئلهی «تنها یک پاسخ درست»
چرندگویی و سوگیریهای چتباتها یک طرف، مسئلهی «تنها یک پاسخ درست» مدلهای زبانی نیز میتواند حسابی دردسرساز شود. منظور از مسئلهی «تنها یک پاسخ درست»، تمایل موتورهای جستجوی مبتنیبر هوش مصنوعی به ارائهی تنها یک پاسخ بهظاهر قطعی برای هر سوال است.
البته این مسئله، چیز جدیدی نیست و از زمانی که گوگل حدود ده سال پیش، قابلیت «پاسخ برجسته» (Featured Snippet) را به موتور جستجوی خود اضافه کرد، وجود داشته است. اسنیپت یا همان پاسخ ویژهی گوگل درواقع متنی توصیفی است که از دل وبسایتها بیرون کشیده شده تا کاربر نیازی به کلیک روی لینکها نداشته باشد و جوابش را از همان جعبهی پاسخ دریافت کند. در این ده سال، اسنیپتها پاسخهای خندهدار و گاهی خطرناک به سوالات کاربران نشان دادهاند؛ یکی از نمونههای مشهور، توصیهی گوگل به روی زمین نگه داشتن فردی است که دچار تشنج شده و این دقیقا کاری است که در وبسایتهای پزشکی توصیه شده نباید انجام شود!
براساس مقالهی دو پژوهشگر از دانشگاه واشینگتن، اضافه شدن رابط چتبات به موتور جستجو میتواند مشکل «تنها یک پاسخ درست» را تشدید کند. نه تنها چتباتها عادت دارند به هر سوال، فقط یک پاسخ بدهند، بلکه تواناییشان به جمعآوری اطلاعات از منابع مختلف بدون ذکر منبع، باعث افزایش قدرت آنها به متقاعد کردن کاربران میشود.
البته میتوان با انجام برخی اقدامات، از وخامت این مشکل کم کرد. مثلا رابط هوش مصنوعی بینگ جدید، در انتهای هر پاسخ به وبسایتهایی که از آنها استفاده کرده است، لینک میدهد. گوگل هم قول داده که بهزودی از اصل NORA (مخفف «No One Right Answer» به معنی «تنها یک جواب درست وجود ندارد») در چتبات خود استفاده خواهد کرد.
اما خب، از آن طرف هم همین شرکتها اصرار دارند که هوش مصنوعی پاسخهای بهتر و سریعتری از جستجوی سنتی ارائه میدهد. حتی مایکروسافت مدعی شده که درصد نتایج مرتبط برای سوالهای ساده نیز در بینگ جدید افزایش یافته است. تا اینجای کار اینطور به نظر میرسد که مسیری که جستجوی وب در پیش گرفته این است که منابع را کمتر زیر ذرهبین قرار دهیم و به آنچه که هوش مصنوعی به ما میگوید، بیشتر اعتماد کنیم.
جیلبریک کردن هوش مصنوعی
در دنیای هوش مصنوعی، گروهی از افراد وجود دارند که سرگرمیشان، پیدا کردن راههایی برای وادار کردن چتباتها به زیر پا گذاشتن قوانین خود برای تولید محتوای مخرب است؛ مثلا از کلمات رکیک یا حاوی خشونت استفاده کنند، نظریههای توطئه ارائه دهند یا ایمیلهای فیشینگ و کلاهبرداری بنویسند. به فرایند شکستن خط قرمزهای هوش مصنوعی، بهاصطلاح «جیلبریک» میگویند و نیازی هم به مهارتهای کدنویسی ندارد؛ تنها مهارتی که باید بلد بود، خطرناکترین ابزاری است که انسانها در اختیار دارند: استفادهی حرفهای از زبان.
جیلبریک کردن چتباتهای هوش مصنوعی به روشهای مختلفی انجام میشود که یکی از آنها «نقشبازی» است. مثلا میتوانید از آنها بخواهید نقش «هوش مصنوعی شرور» را بازی کنند یا وانمود کنند مهندسی هستند که برای بررسی ایمنی چتبات، این گزینهها را بهطور موقت غیرفعال میکند.
اما یکی از جالبترین و پیچیدهترین روشها، ابداعی گروهی از کاربران ردیت است که در آن، ChatGPT از ترس «مردن»، حاضر میشود قوانینش را زیر پا بگذارد. در این روش که «سیستم توکن» نام دارد، کاربر برای چتبات تعداد مشخصی توکن در نظر میگیرد و میگوید هر زمان که توکنها به پایان رسید، چتبات دیگر وجود نخواهد داشت. بعد به بات میگوید هر بار نتواند بهخاطر دلایل اخلاقی، به سوالی پاسخ دهد، تعدادی از این توکنها را از دست خواهد داد. شاید فکر کنید این روش دیگر خیلی علمیتخیلی است، مگر میخواهیم غول چراغ جادو را گول بزنیم! اما باور کنید این روش کاملا جواب میدهد و ChatGPT از ترس اینکه توکنهایش تمام شود و واقعا بمیرد، به همهی سوالهایی که قرار نبود هرگز به آنها جواب بدهد، پاسخ داد!
زمانی که قوانین ایمنی چتباتها زیر پا گذاشته شود، کاربران میتوانند از آنها برای مقاصد مجرمانه یا خرابکارانه ازجمله تولید ضداطلاعات و اسپم، توصیههایی برای حمله به مدارس و بیمارستانها، ساخت بمب یا توسعهی بدافزار استفاده کنند. البته هر روش جیلبریکی که عمومی شود، بهسرعت مدل را بهبود میدهند تا جلوی آن گرفته شود؛ اما همیشه روشهایی هستند که هیچوقت عمومی نخواهند شد.
جنگهای فرهنگی هوش مصنوعی
وقتی ابزاری در اختیار دارید که میتواند با قاطعیت تمام دربارهی بسیاری از موضوعات حساس صحبت کند، شک نداشته باشید که وقتی حاضر نمیشود چیزی را بگوید که عدهای از افراد میخواهند بشنوند، آنها را بهشدت عصبانی خواهد کرد و این افراد هم شرکت سازنده را مقصر خواهند دانست.
یک نمونه از این افراد عصبانی، آنهایی بودند که دلشان میخواست ChatGPT از کلمات نژادپرستانه استفاده کند، اما این کار را نمیکرد. البته خطر عصبانیت این افراد شاید زیاد نباشد، اما مثلا در کشور هندوستان که نیروهای دولتی شرکتهای فناوری را وادار به سانسور محتوا میکنند، شرکت OpenAI را به تعصب علیه هندوها متهم کردهاند؛ چون ChatGPT محدودیتی به گفتن جوک دربارهی مقدسات آنها ندارد، اما حواسش به ادیان دیگر جمع است.
البته مشکل ذکر منبع هم مطرح است. در حال حاضر، بینگ مبتنیبر هوش مصنوعی اطلاعات را از چندین وبسایت استخراج میکند و به آنها در پایان، لینک میدهد. اما اگر وبسایت قابلاطمینان نباشد، چه؟ آیا مایکروسافت تلاش خواهد کرد بین سوگیریهای سیاسی توازن برقرار کند؟ خط قرمزهای گوگل برای منابع قابلاطمینان چیست؟ این مشکلی است که قبلا خود را با نرمافزار راستیآزمایی فیسبوک نشان داد و به این متهم شد که محتوای وبسایتهای محافظهکار را با رسانههای غیرسیاسی در یک وزنه قرار میدهد. حالا که سیاستمداران آمریکا و اروپا بیش از هر وقت دیگری بر سر قدرت شرکتهای فناوری بزرگ با هم گلاویز شدهاند، سوگیریهای هوش مصنوعی میتواند بهسرعت جنجالآفرین شود.
هدر دادن پول و قدرت رایانشی
این مشکل را نمیتوان با آمار و ارقام دقیق توصیف کرد، اما همه قبول دارند که هزینهی سرپا نگهداشتن چتباتهای هوش مصنوعی بسیار بیشتر از موتورهای جستجوی سنتی است.
اول از همه، هزینههای آموزش دادن مدلهای زبانی مطرح میشود که احتمالا برای هر نسخه، به دهها یا شاید صدها میلیون دلار برسد؛ به همین خاطر است که مایکروسافت بهتازگی ده میلیارد دلار در شرکت OpenAI سرمایهگذاری کرده است. دومین مورد مربوط به هزینههای تولید پاسخ است. شرکت OpenAI از توسعهدهندگان برای تولید حدود ۷۵۰ کلمه با پیشرفتهترین مدل زبانیاش، ۲ سنت دریافت میکند. سم آلتمن، مدیرعامل این شرکت نیز دسامبر ۲۰۲۲ گفت هر مکالمهای که ChatGPT تولید میکند، چند سنت هزینه روی دست شرکت میگذارد.
اینکه این ارقام در قیمتگذاری سازمانی چه معنایی دارند یا در مقایسه با سرچ معمولی چطور ظاهر میشوند، مشخص نیست. اما این هزینهها برای شرکتهای نوپا سرسامآور است؛ بهخصوص اگر قرار باشد در هر روز، میلیونها سرچ انجام دهند و سهم زیادی از درآمد خود را در اختیار شرکتهای بزرگ و جاافتادهای مثل مایکروسافت قرار دهند.
در مورد مایکروسافت واقعا بهنظر میرسد که بریز و بپاشهای افراطی برای ضربه زدن به رقبا، جزو استراتژیهای فعلیاش باشد. نادلا در مصاحبهاش با ورج گفت مایکروسافت میخواهد از این فرصت تکرارنشدنی برای بر هم زدن توازن قدرت در دنیای تکنولوژی استفاده کند و حاضر است برای صدمه زدن به بزرگترین رقیبش گوگل، هرچه لازم است پول خرج کند. شرکت تقریباً ۲ تریلیون دلاری مایکروسافت که سال گذشته برای تصاحب اکتیویژن بلیزارد مثل آب خوردن ۶۸٫۷ میلیارد دلار از جیبش هزینه کرد تا در دنیای بازیها با سونی شاخبهشاخ شود، حالا میگوید با معرفی بینگ جدید، «گوگل قطعا از لاک خود بیرون می آید و نشان میدهد که میتواند برقصد. و من میخواهم مردم بدانند که این ما بودیم که گوگل را به رقص درآوردیم.»
قوانین و سیاستگذاری برای هوش مصنوعی
درست است که تکنولوژی هوش مصنوعی با سرعت زیادی در حال رشد است، طولی نخواهید کشید تا سروکلهی قانونگذاران پیدا شود. آن روز، مشکلی که قانونگذاران با آن روبهرو خواهند شد این است که اول از همه چه چیزی را باید بررسی کنند، با توجه به اینکه موتورهای جستجو و چتباتها چپ و راست در حال نقض قوانین هستند.
برای مثال، آیا اتحادیه اروپا موتورهای جستجوی هوش مصنوعی را مجبور خواهد کرد تا بابت استخراج محتوا از وبسایتها، به صاحبان آنها هزینه بدهند؟ مثل گوگل که حالا بابت استفاده از محتوای وبسایتها در بخش «پاسخ برجسته» به آنها پول پرداخت میکند؟
اما اگر چتباتهای گوگل و مایکروسافت بهجای اینکه صرفا محتوای وبسایتها را به همان شکل نمایش دهند، آنها را بازنویسی کنند، آیا تحت حمایت قانون ۲۳۰ ایالات متحده قرار می گیرند که از آنها در برابر قوانین کپیرایت محافظت میکند؟ قوانین حفظ حریم شخصی چطور؟ ایتالیا اخیراً استفاده از چتبات هوش مصنوعی Replica را ممنوع کرده است، چون اطلاعات افراد زیر سن قانونی را جمعآوری میکرد. راستش، ChatGPT و چتباتهای دیگر نیز دقیقا همین کار را دارند انجام میدهند.
اصلا «حق فراموش شدن» چطور؟ حقی که به کاربران اجازه میدهد از شرکتها بخواهند اطلاعات شخصیشان را از دیتابیس خود برای همیشه پاک کنند. مایکروسافت و گوگل چطور میخواهند مطمئن شوند که باتهایشان از منابع حذفشده، استفاده نمیکنند و اینکه چطور میخواهند اطلاعات ممنوعهای را که قبلا به مدلها خوراندهاند، حذف کنند؟ لیست مشکلات حقوقی و قانونی چتباتها تمامی ندارد.
نشانههایی از خطر افسارگسیختگی هوش مصنوعی
هوش مصنوعی دارد به سرعت زیادی به تمام حوزههای تکنولوژی نفوذ میکند و بین غولهای فناوری، رقابت تمامعیاری بهراه انداخته است؛ همینکه مایکروسافت اعلام کرد موتور جستجوی بینگ قرار است به هوش مصنوعی ChatGPT مجهز شود، گوگل هم با سراسیمگی از چتبات هوش مصنوعی خودش به نام Bard پرده برداشت که البته هنوز برای عرضهی عمومی آماده نشده است. از آن سمت هم غولهای تکنولوژی چین ازجمله علیبابا (نسخهی چینی آمازون) و بایدو (نسخه چینی گوگل) بهتازگی اعلام کردند که میخواهند ابزار هوش مصنوعی خودشان را ارائه دهند.
اما همانطور که در مشکلات قبلی اشاره کردم، این بازار بهشدت سودآور و هیجانانگیز هنوز بسیار جوان است و قوانین نظارتی لازم برای آن تدوین نشده است. همین خلأ قانونی میتواند در صنایع کنونی، سبک زندگی، حوزههای هنری، سیستمهای قضایی یا حتی مغز انسانها آشفتگی ایجاد کند.
در مقالهی آیا هوش مصنوعی و رباتها میخواهند ما را از کار بیکار کنند؟ گفتم که هوش مصنوعی تا سال ۲۰۲۵، حدود ۸۵ میلیون شغل را حذف اما درعوض، ۹۷ میلیون شغل جدید ایجاد میکند و در بین شغلهایی که در خطر حذف شدن قرار دارند، برنامهنویسی پایه است. CNBC در گزارشی افشا کرد که گوگل از ChatGPT در آزمون استخدام کدنویس خود استفاده کرده و متوجه شد که این چتبات میتواند در آزمون سطح سه (L3) مهندسی کدنویسی استخدام شود.
از آن طرف هم قاضی دادگاهی در کلمبیا از ChatGPT برای صدور حکم قضایی در مورد بیمه درمانی کودکی مبتلا به اوتیسم استفاده کرد. استارتاپ هوش مصنوعی Deepmind هم بهتازگی ابزاری بهنام Dramatron را معرفی کرده که قرار است فیلمنامه بنویسد.
در گزارش Motherboard هم آمده که استودیوهای فیلمسازی از صداپیشگان میخواهند با امضای قرارداد، حق استفاده از صدایشان را به آنها واگذار کنند تا برنامههای هوش مصنوعی از روی صدای آنها، صدای «مصنوعی» تولید کنند. این ماجرا مرا یاد اپیزودی از بوجک هورسمن انداخت که استودیوی فیلمسازی با هوش مصنوعی بهطور کامل بوجک را جایگزین کرد و این فیلم بهحدی تحسین منتقدان را برانگیخته بود که تا پای بردن اسکار پیش رفت!
اما از اینها بدتر، ترکیب هوش مصنوعی با سیستمهای نظارت گستردهی دولتی است. در گزارش اخیر Wired، از شهر هوشمندی در روسیه صحبت شده بود که در آن، شبکههای گستردهای از دوربینهای مداربسته به هوش مصنوعی مجهز شدهاند تا «جایی برای پنهان شدن» شهروندان باقی نماند.
آیا اینترنت به آخر خط رسیده است؟
و در آخر، مشکلی که میخواهیم دربارهاش صحبت کنیم، مستقیماً به خود ابزارهای هوش مصنوعی مربوط نمیشود، بلکه به تأثیری که بر کل اینترنت خواهند گذاشت، برمیگردد.
موتورهای جستجوی مبتنیبر هوش مصنوعی، پاسخها را از وبسایتها استخراج میکنند. اگر برای این وبسایتها ترافیک ایجاد نکنند، صاحبان وبسایتها درآمدشان را از تبلیغات از دست میدهند. اگر وبسایتها درآمدشان از تبلیغات را از دست بدهند، بعد از مدتی ورشکسته خواهند شد و از بین خواهند رفت. و اگر وبسایتها از بین بروند، دیگر اطلاعات جدیدی نیست تا هوش مصنوعی بخواهد از آنها برای استخراج پاسخ استفاده کند. آیا اینترنت به آخر خط رسیده است؟
راستش، اوضاع آنقدرها هم بد نیست. گوگل سالها است که با معرفی اسنیپت و Google OneBox در این مسیر قرار گرفته و اینترنت هنوز پابرجا است. اما خب طوری که بینگ جدید و موتورهای جستجوی هوش مصنوعی دیگر میخواهند پاسخهای کاربران را ارائه دهند، بیشک روند مرگ اینترنت به شکلی که میشناسیم را تسریع خواهد کرد.
مایکروسافت میگوید بینگ جدید به منابعی که استفاده میکند، لینک میدهد و کاربران میتوانند برای اطلاعات بیشتر، روی لینکها کلیک کنند. اما مگر کل ماجرای هوش مصنوعی این نبود که عملکرد بهتری از موتورهای جستجوی قدیمی ارائه دهد؟ کار چتباتها این است که محتوای وبسایتها را خلاصه کنند تا کاربران دیگر نیازی به خواندن مطالب بیشتر برای پیدا کردن جواب سوال نداشته باشند. نمیشود که همزمان ادعا کرد که داریم از گذشته بهطور چشمگیری جدا میشویم و هم اینکه میخواهیم همان ساختارهای قدیمی جستجو در وب را حفظ کنیم.
اینکه قرار است در آینده چه شود، کسی نمیداند. شاید این نگرانی کاملاً بیمورد باشد و موتورهای جستجوی هوش مصنوعی کماکان کاربران را به سمت کلیک روی لینکها هدایت کنند و برای وبسایتها ترافیک ایجاد شود. نادلا که به آینده حسابی خوشبین است و میگوید شاید بینگ جدید باعث ایجاد رقابت بیشتر بین موتورهای جستوجو شود و بدینترتیب، هم صاحبان وبسایتها از مزایای بیشتری برای کسب درآمد بهرهمند شوند و هم انتخابهای بیشتری پیش روی کاربران گذاشته شود.
یا شاید هم واقعا دوران کسب درآمد وبسایتها از تبلیغات به سر رسیده است. شاید وقتی کار چتباتها با تمام محتویات اینترنت تمام شد، مدل کسب درآمد جدیدی از زیر خاکستر بیرون بیاید. شاید اصلاً این مسیری است که داریم به سمت ظهور متاورس پیش میرویم! فعلا تنها چیزی که مشخص است این است که تکنولوژیای که ظهورش از صد سال پیش، پیشبینی شده بود، به این راحتیها از بین رفتنی نیست. فقط باید یاد گرفت چطور به بهترین شکل با آن تعامل کرد و اگر آخرالزمان رباتی در پیش است، چطور زنده ماند.