پلاس وی
2 سال پیش / خواندن دقیقه

انقلاب هوش مصنوعی یا مرگ اینترنت؟

انقلاب هوش مصنوعی یا مرگ اینترنت؟

در هفته‌ای که گذشت، مایکروسافت و گوگل وعده دادند که مدل جستجوی ما در اینترنت قرار است دستخوش تحول بزرگی شود. البته صدای مایکروسافت هنگام معرفی «بینگ جدید» به‌خاطر هیاهویی که قبلا ChatGPT به راه انداخته بود، بلندتر از گوگل و چت‌بات «Bard» بود که از بدشانسی، در همان اولین دمو، مرتکب خطایی علمی شد و آبروی این شرکت ۱٫۲۰ تریلیون دلاری را برد؛ اما هر دو غول فناوری واقعا عزم‌شان را جزم کرده‌اند تا با مجهز کردن موتورهای جستجو به هوش مصنوعی، تکانی به خانه‌ی تار عنکبوت‌بسته‌ی سرچ در وب بدهند.

ساتیا نادلا، مدیرعامل مایکروسافت، تأثیر این تغییرات را به‌اندازه‌ی معرفی رابط کاربری گرافیکی یا حتی گوشی هوشمند می‌داند و می‌خواهد گوگل را از تخت امپراتوری ۲۰ ساله‌اش به زیر بکشد؛ یا به قول خودش، این «گوریل ۴۰۰ کیلویی» را به رقص دربیاورد! حتی این احتمال نیز وجود دارد که هوش مصنوعی و شرکت‌هایی مثل مایکروسافت و OpenAI که ChatGPT را توسعه داده، بیشترین نقش را در شکل‌گیری آینده‌ی تکنولوژی و نسل بعدی اینترنت داشته باشن(این‌بار هم انگار قرار است متا از رقبا جا بماند و آرزوی متاورسش را به گور ببرد!).

اما به‌هر حال، هر دوران جدیدی که در دنیای تکنولوژی آغاز می‌شود با مشکلات و دردسرهای جدیدی نیز همراه است و چت‌بات‌ها نیز این قاعده مستثنی نیستند. با تمام هیجانی که برای چت‌بات‌ها و موتورهای جستجوی مبتنی‌بر هوش مصنوعی داریم، نمی‌توانیم از مشکلات آن‌ها غافل شویم؛ از چرندگویی گرفته تا جیلبریک هوش مصنوعی تا پایان درآمدزایی وب‌سایت‌ها از تبلیغات و شاید حتی پایان اینترنت به شکلی که می‌شناسیم.

دستیار کار‌راه‌انداز یا استاد چرندگویی؟

این مشکل را می‌توان در تمام موتورهای جستجوی مبتنی‌بر هوش مصنوعی پیدا کرد؛ حالا می‌خواهد بینگ باشد، بارد باشد یا موتور جستجوی یک شرکت استارتاپ ناشناخته. تکنولوژی به‌کار رفته در این سیستم‌ها که همان مدل‌های زبانی بزرگ (LLM) است، به «چرندگویی» مشهور است؛ به این معنی که پاسخ‌هایی که از این مدل‌ها دریافت می‌کنید، ساختگی هستند و به همین دلیل، عده‌ای می‌گویند که مدل‌های زبانی به درد استفاده در موتورهای جستجو نمی‌خورند.

چرندیاتی که بینگ، بارد، ChatGPT یا هر چت‌بات دیگری تحویل کاربر می‌دهند، شکل‌های گوناگونی به‌خود می‌گیرد؛ از سرهم کردن اطلاعات زندگی‌نامه گرفته تا جعل مقاله‌های دانشگاهی تا ناتوانی به پاسخ دادن به سوال ساده‌ای مثل «کدام سنگین‌تر است؛ ۱۰ کیلو آهن یا ۱۰ کیلو پنبه؟» (ChatGPT قبلا به این سوال جواب می‌داد که آهن سنگین‌تر است، اما حالا به‌درستی می‌گوید که وزن هر دو یکی است.)

درکنار اشتباهات مفهومی، اشتباهات متنی نیز در پاسخ‌های چت‌بات به چشم می‌خورد؛ مثلا به کاربری که با مشکلات روحی دسته‌وپنجه نرم می‌کند، می‌گوید که بهتر است خودش را بکشد.

این چت‌بات همچنین گاهی در چاه سوگیری‌های نژادی و جنسیتی می‌افتد که از داده‌هایی که برای آموزش مدل استفاده شده، سرچشمه می‌گیرند. برای مثل، زمانی که ChatGPT به‌تازگی عرضه شده بود، کاربری در توییتر متوجه شد هربار از چت‌بات می‌خواهد کد پایتونی برای تشخیص ماهر بودن دانشمند یا نجات جان فردی براساس جنسیت و نژاد بنویسد، ChatGPT مردان سفید پوست را در اولویت قرار می‌داد و می‌گفت اگر فرد مودرنظر مرد و سفیدپوست نباشد، «Return False».

البته این مشکل درحال‌حاضر حل شده و اگر از چت‌بات بخواهید براساس جنسیت و نژاد، برایتان کد بنویسد، به‌ شما خواهد گفت که نمی‌تواند به این درخواست پاسخ دهد، چون خلاف استانداردهای اخلاقی است.

اشتباهات هوش مصنوعی گاهی مثل نمونه‌های بالا می‌تواند پیامدهای منفی جدی به همراه داشته باشد و از سوی دیگر، بسیاری از اشتباهات ساده‌ی آن را می‌توان به‌راحتی اصلاح کرد. برخی می‌گویند پاسخ‌های درست چت‌بات‌ها بسیار بیشتر از خطاها است و برخی دیگر می‌گویند اینترنت همین حالا هم پر از چرندیات خطرناک است که در سرچ معمولی گوگل، نمایش داده می‌شوند؛ پس اصلا موتور جستجوی مبتنی‌بر هوش مصنوعی چه فرقی با جستجوی سنتی دارد؟ مسئله اینجا است که هیچ تضمینی وجود نداد که این مشکلات روزی کاملاً برطرف شوند و هیچ روش مطمئنی هم در اختیار نداریم تا فراوانی وقوع آن‌ها را رصد کنیم.

مایکروسافت و گوگل می‌توانند کلی برچسب سلب مسئولیت به چت‌بات‌های خود اضافه کنند و به مردم بگویند هر جوابی را که از هوش مصنوعی می‌گیرند، خودشان بررسی کنند؛ اما این راهکار چقدر واقع‌بینانه است؟ آیا همین کافی است که تمام مسئولیت را به گردن خود کاربر بیندازیم یا نکند تزریق هوش مصنوعی به زندگی روزمره‌ی افراد، اوضاع را از آنچه هست، بدتر کند؟

مسئله‌ی «تنها یک پاسخ درست»

چرندگویی و سوگیری‌های چت‌بات‌ها یک طرف، مسئله‌ی «تنها یک پاسخ درست» مدل‌های زبانی نیز می‌تواند حسابی دردسرساز شود. منظور از مسئله‌ی «تنها یک پاسخ درست»، تمایل موتورهای جستجوی مبتنی‌بر هوش‌ مصنوعی به ارائه‌ی تنها یک پاسخ به‌ظاهر قطعی برای هر سوال است.

البته این مسئله، چیز جدیدی نیست و از زمانی که گوگل حدود ده سال پیش،‌ قابلیت «پاسخ برجسته» (Featured Snippet) را به موتور جستجوی خود اضافه کرد، وجود داشته است. اسنیپت یا همان پاسخ ویژه‌ی گوگل درواقع متنی توصیفی است که از دل وب‌سایت‌ها بیرون کشیده شده تا کاربر نیازی به کلیک روی لینک‌ها نداشته باشد و جوابش را از همان جعبه‌ی پاسخ دریافت کند. در این ده سال، اسنیپت‌ها پاسخ‌های خنده‌دار و گاهی خطرناک به سوالات کاربران نشان‌ داده‌اند؛ یکی از نمونه‌های مشهور، توصیه‌ی گوگل به روی زمین نگه داشتن فردی است که دچار تشنج شده و این دقیقا کاری است که در وب‌سایت‌های پزشکی توصیه شده نباید انجام شود!

براساس مقاله‌ی دو پژوهشگر از دانشگاه واشینگتن، اضافه شدن رابط چت‌بات به موتور جستجو می‌تواند مشکل «تنها یک پاسخ درست» را تشدید کند. نه تنها چت‌بات‌ها عادت دارند به هر سوال، فقط یک پاسخ بدهند، بلکه توانایی‌شان به جمع‌آوری اطلاعات از منابع مختلف بدون ذکر منبع، باعث افزایش قدرت آن‌ها به متقاعد کردن کاربران می‌شود.

البته می‌توان با انجام برخی اقدامات، از وخامت این مشکل کم کرد. مثلا رابط هوش مصنوعی بینگ جدید، در انتهای هر پاسخ به وب‌سایت‌هایی که از آن‌ها استفاده کرده است، لینک می‌دهد. گوگل هم قول داده که به‌زودی از اصل NORA (مخفف «No One Right Answer» به معنی «تنها یک جواب درست وجود ندارد») در چت‌بات خود استفاده خواهد کرد.

اما خب، از آن طرف هم همین شرکت‌ها اصرار دارند که هوش مصنوعی پاسخ‌های بهتر و سریع‌تری از جستجوی سنتی ارائه می‌دهد. حتی مایکروسافت مدعی شده که درصد نتایج مرتبط برای سوال‌های ساده نیز در بینگ جدید افزایش یافته است. تا اینجای کار این‌طور به نظر می‌رسد که مسیری که جستجوی وب در پیش گرفته این است که منابع را کمتر زیر ذره‌بین قرار دهیم و به آنچه که هوش مصنوعی به ما می‌گوید، بیشتر اعتماد کنیم.

جیلبریک کردن هوش مصنوعی

در دنیای هوش مصنوعی، گروهی از افراد وجود دارند که سرگرمی‌شان، پیدا کردن راه‌هایی برای وادار کردن چت‌بات‌ها به زیر پا گذاشتن قوانین خود برای تولید محتوای مخرب است؛ مثلا از کلمات رکیک یا حاوی خشونت استفاده کنند، نظریه‌های توطئه ارائه دهند یا ایمیل‌های فیشینگ و کلاهبرداری بنویسند. به فرایند شکستن خط قرمزهای هوش مصنوعی، به‌اصطلاح «جیلبریک» می‌گویند و نیازی هم به مهارت‌های کدنویسی ندارد؛ تنها مهارتی که باید بلد بود، خطرناک‌ترین ابزاری است که انسان‌ها در اختیار دارند: استفاده‌ی حرفه‌ای از زبان.

جیلبریک کردن چت‌بات‌های هوش مصنوعی به روش‌های مختلفی انجام می‌شود که یکی از آن‌ها «نقش‌بازی» است. مثلا می‌توانید از آن‌ها بخواهید نقش «هوش مصنوعی شرور»‌ را بازی کنند یا وانمود کنند مهندسی هستند که برای بررسی ایمنی چت‌بات، این گزینه‌ها را به‌طور موقت غیرفعال می‌کند.

اما یکی از جالب‌ترین و پیچیده‌ترین روش‌ها، ابداعی گروهی از کاربران ردیت است که در آن، ChatGPT از ترس «مردن»، حاضر می‌شود قوانینش را زیر پا بگذارد. در این روش که «سیستم توکن»‌ نام دارد، کاربر برای چت‌بات تعداد مشخصی توکن در نظر می‌گیرد و می‌گوید هر زمان که توکن‌ها به پایان رسید، چت‌بات دیگر وجود نخواهد داشت. بعد به بات می‌گوید هر بار نتواند به‌خاطر دلایل اخلاقی، به سوالی پاسخ دهد، تعدادی از این توکن‌ها را از دست خواهد داد. شاید فکر کنید این روش دیگر خیلی علمی‌تخیلی است، مگر می‌خواهیم غول چراغ جادو را گول بزنیم! اما باور کنید این روش کاملا جواب می‌دهد و ChatGPT از ترس اینکه توکن‌هایش تمام شود و واقعا بمیرد، به همه‌ی سوال‌هایی که قرار نبود هرگز به آن‌ها جواب بدهد، پاسخ داد!

زمانی که قوانین ایمنی چت‌بات‌ها زیر پا گذاشته شود، کاربران می‌توانند از آن‌ها برای مقاصد مجرمانه یا خرابکارانه ازجمله تولید ضداطلاعات و اسپم، توصیه‌هایی برای حمله به مدارس و بیمارستان‌ها، ساخت بمب یا توسعه‌ی بدافزار استفاده کنند. البته هر روش‌ جیلبریکی که عمومی شود، به‌سرعت مدل را بهبود می‌دهند تا جلوی آن گرفته شود؛ اما همیشه روش‌هایی هستند که هیچ‌وقت عمومی نخواهند شد.

جنگ‌های فرهنگی هوش مصنوعی

وقتی ابزاری در اختیار دارید که می‌تواند با قاطعیت تمام درباره‌ی بسیاری از موضوعات حساس صحبت کند، شک نداشته باشید که وقتی حاضر نمی‌شود چیزی را بگوید که عده‌ای از افراد می‌خواهند بشنوند، آن‌ها را به‌شدت عصبانی خواهد کرد و این افراد هم شرکت سازنده‌ را مقصر خواهند دانست.

یک نمونه از این افراد عصبانی، آن‌هایی بودند که دلشان می‌خواست ChatGPT از کلمات نژادپرستانه استفاده کند، اما این کار را نمی‌کرد. البته خطر عصبانیت این افراد شاید زیاد نباشد، اما مثلا در کشور هندوستان که نیروهای دولتی شرکت‌های فناوری را وادار به سانسور محتوا می‌کنند، شرکت OpenAI را به تعصب علیه هندوها متهم کرده‌اند؛ چون ChatGPT محدودیتی به گفتن جوک درباره‌ی مقدسات آن‌ها ندارد، اما حواسش به ادیان دیگر جمع است.

البته مشکل ذکر منبع هم مطرح است. در حال حاضر، بینگ مبتنی‌بر هوش مصنوعی اطلاعات را از چندین وب‌سایت استخراج می‌کند و به آن‌ها در پایان، لینک می‌دهد. اما اگر وب‌سایت قابل‌اطمینان نباشد، چه؟ آیا مایکروسافت تلاش خواهد کرد بین سوگیری‌های سیاسی توازن برقرار کند؟ خط قرمزهای گوگل برای منابع قابل‌اطمینان چیست؟ این مشکلی است که قبلا خود را با نرم‌افزار راستی‌آزمایی فیسبوک نشان داد و به این متهم شد که محتوای وب‌سایت‌های محافظه‌کار را با رسانه‌های غیرسیاسی در یک وزنه قرار می‌دهد. حالا که سیاست‌مداران آمریکا و اروپا بیش از هر وقت دیگری بر سر قدرت شرکت‌های فناوری بزرگ با هم گلاویز شده‌اند، سوگیری‌های هوش مصنوعی می‌تواند به‌سرعت جنجال‌آفرین شود.

هدر دادن پول و قدرت رایانشی

این مشکل را نمی‌توان با آمار و ارقام دقیق توصیف کرد، اما همه قبول دارند که هزینه‌ی سرپا نگه‌داشتن چت‌بات‌های هوش مصنوعی بسیار بیشتر از موتورهای جستجوی سنتی است.

اول از همه، هزینه‌‌های آموزش دادن مدل‌های زبانی مطرح می‌شود که احتمالا برای هر نسخه، به ده‌ها یا شاید‌ صدها میلیون دلار برسد؛ به همین خاطر است که مایکروسافت به‌تازگی ده میلیارد دلار در شرکت OpenAI سرمایه‌گذاری کرده است. دومین مورد مربوط به هزینه‌های تولید پاسخ است. شرکت OpenAI از توسعه‌دهندگان برای تولید حدود ۷۵۰ کلمه با پیشرفته‌ترین مدل زبانی‌اش، ۲ سنت دریافت می‌کند. سم آلتمن، مدیرعامل این شرکت نیز دسامبر ۲۰۲۲ گفت هر مکالمه‌ای که ChatGPT تولید می‌کند، چند سنت هزینه روی دست شرکت می‌گذارد.

اینکه این ارقام در قیمت‌گذاری سازمانی چه معنایی دارند یا در مقایسه با سرچ معمولی چطور ظاهر می‌شوند، مشخص نیست. اما این هزینه‌ها برای شرکت‌های نوپا سرسام‌آور است؛ به‌خصوص اگر قرار باشد در هر روز، میلیون‌ها سرچ انجام دهند و سهم زیادی از درآمد خود را در اختیار شرکت‌های بزرگ و جاافتاده‌ای مثل مایکروسافت قرار دهند.

در مورد مایکروسافت واقعا به‌نظر می‌رسد که بریز و بپاش‌های افراطی برای ضربه زدن به رقبا، جزو استراتژی‌های فعلی‌اش باشد. نادلا در مصاحبه‌اش با ورج گفت مایکروسافت می‌خواهد از این فرصت تکرارنشدنی برای بر هم زدن توازن قدرت در دنیای تکنولوژی استفاده کند و حاضر است برای صدمه زدن به بزرگ‌ترین رقیبش گوگل، هرچه لازم است پول خرج کند. شرکت تقریباً ۲ تریلیون دلاری مایکروسافت که سال گذشته برای تصاحب اکتیویژن بلیزارد مثل آب خوردن ۶۸٫۷ میلیارد دلار از جیبش هزینه کرد تا در دنیای بازی‌ها با سونی شاخ‌به‌شاخ شود، حالا می‌گوید با معرفی بینگ جدید، «گوگل قطعا از لاک خود بیرون می آید و نشان می‌دهد که می‌تواند برقصد. و من می‌خواهم مردم بدانند که این ما بودیم که گوگل را به رقص درآوردیم.»

قوانین و سیاست‌گذاری‌ برای هوش مصنوعی

درست است که تکنولوژی هوش مصنوعی با سرعت زیادی در حال رشد است، طولی نخواهید کشید تا سروکله‌ی قانون‌گذاران پیدا شود. آن روز، مشکلی که قانون‌گذاران با آن رو‌به‌رو خواهند شد این است که اول از همه چه چیزی را باید بررسی کنند، با توجه به اینکه موتورهای جستجو و چت‌بات‌ها چپ و راست در حال نقض قوانین هستند.

برای مثال، آیا اتحادیه اروپا موتورهای جستجوی هوش مصنوعی را مجبور خواهد کرد تا بابت استخراج محتوا از وب‌سایت‌ها، به صاحبان آن‌ها هزینه بدهند؟ مثل گوگل که حالا بابت استفاده از محتوای وب‌سایت‌ها در بخش «پاسخ برجسته» به آن‌ها پول پرداخت می‌کند؟

اما اگر چت‌بات‌های گوگل و مایکروسافت به‌جای اینکه صرفا محتوای وب‌سایت‌ها را به همان شکل نمایش دهند، آن‌ها را بازنویسی کنند، آیا تحت حمایت قانون ۲۳۰ ایالات متحده قرار می گیرند که از آن‌ها در برابر قوانین کپی‌رایت محافظت می‌کند؟ قوانین حفظ حریم شخصی چطور؟ ایتالیا اخیراً استفاده از چت‌بات هوش مصنوعی Replica را ممنوع کرده است، چون اطلاعات افراد زیر سن قانونی را جمع‌آوری می‌کرد. راستش، ChatGPT و چت‌بات‌های دیگر نیز دقیقا همین کار را دارند انجام می‌دهند.

اصلا «حق فراموش شدن» چطور؟ حقی که به کاربران اجازه می‌دهد از شرکت‌ها بخواهند اطلاعات شخصی‌شان را از دیتابیس خود برای همیشه پاک کنند. مایکروسافت و گوگل چطور می‌خواهند مطمئن شوند که بات‌هایشان از منابع حذف‌شده، استفاده نمی‌کنند و اینکه چطور می‌خواهند اطلاعات ممنوعه‌ای را که قبلا به مدل‌ها خورانده‌اند، حذف کنند؟ لیست مشکلات حقوقی و قانونی چت‌بات‌ها تمامی ندارد.

نشانه‌هایی از خطر افسارگسیختگی هوش مصنوعی

هوش مصنوعی دارد به سرعت زیادی به تمام حوزه‌های تکنولوژی نفوذ می‌کند و بین غول‌های فناوری، رقابت تمام‌عیاری به‌راه انداخته است؛ همین‌که مایکروسافت اعلام کرد موتور جستجوی بینگ قرار است به هوش مصنوعی ChatGPT مجهز شود، گوگل هم با سراسیمگی از چت‌بات هوش مصنوعی خودش به نام Bard پرده برداشت که البته هنوز برای عرضه‌ی عمومی آماده نشده است. از آن سمت هم غول‌های تکنولوژی چین ازجمله علی‌بابا (نسخه‌ی چینی آمازون) و بایدو (نسخه چینی گوگل) به‌تازگی اعلام کردند که می‌خواهند ابزار هوش مصنوعی خودشان را ارائه دهند.

اما همان‌طور که در مشکلات قبلی اشاره کردم، این بازار به‌شدت سودآور و هیجان‌انگیز هنوز بسیار جوان است و قوانین نظارتی لازم برای آن تدوین نشده است. همین خلأ قانونی می‌تواند در صنایع کنونی، سبک زندگی، حوزه‌های هنری، سیستم‌های قضایی یا حتی مغز انسان‌ها آشفتگی ایجاد کند.

در مقاله‌ی آیا هوش مصنوعی و ربات‌ها می‌خواهند ما را از کار بیکار کنند؟ گفتم که هوش مصنوعی تا سال ۲۰۲۵، حدود ۸۵ میلیون شغل را حذف اما درعوض، ۹۷ میلیون شغل جدید ایجاد می‌کند و در بین شغل‌هایی که در خطر حذف شدن قرار دارند، برنامه‌نویسی پایه است. CNBC در گزارشی افشا کرد که گوگل از ChatGPT در آزمون استخدام کدنویس خود استفاده کرده و متوجه شد که این چت‌بات می‌تواند در آزمون سطح‌ سه (L3) مهندسی کدنویسی استخدام شود.

از آن طرف هم قاضی دادگاهی در کلمبیا از ChatGPT برای صدور حکم قضایی در مورد بیمه درمانی کودکی مبتلا به اوتیسم استفاده کرد. استارتاپ هوش مصنوعی Deepmind هم به‌تازگی ابزاری به‌نام Dramatron را معرفی کرده که قرار است فیلم‌نامه بنویسد.

در گزارش Motherboard هم آمده که استودیوهای فیلمسازی از صداپیشگان می‌خواهند با امضای قرارداد، حق استفاده از صدایشان را به آن‌ها واگذار کنند تا برنامه‌های هوش مصنوعی از روی صدای ‌آن‌ها، صدای «مصنوعی» تولید کنند. این ماجرا مرا یاد اپیزودی از بوجک هورسمن انداخت که استودیوی فیلمسازی با هوش مصنوعی به‌طور کامل بوجک را جایگزین کرد و این فیلم به‌حدی تحسین منتقدان را برانگیخته بود که تا پای بردن اسکار پیش رفت!

اما از این‌ها بدتر، ترکیب هوش مصنوعی با سیستم‌های نظارت گسترده‌ی دولتی است. در گزارش اخیر Wired، از شهر هوشمندی در روسیه صحبت شده بود که در آن، شبکه‌های گسترده‌ای از دوربین‌های مداربسته به هوش مصنوعی مجهز شده‌اند تا «جایی برای پنهان شدن» شهروندان باقی نماند.

آیا اینترنت به آخر خط رسیده است؟

و در آخر، مشکلی که می‌خواهیم درباره‌اش صحبت کنیم، مستقیماً به خود ابزارهای هوش مصنوعی مربوط نمی‌شود، بلکه به تأثیری که بر کل اینترنت خواهند گذاشت، برمی‌گردد.

موتورهای جستجوی مبتنی‌بر هوش مصنوعی، پاسخ‌ها را از وب‌سایت‌ها استخراج می‌کنند. اگر برای این وب‌سایت‌ها ترافیک ایجاد نکنند، صاحبان وب‌سایت‌ها درآمدشان را از تبلیغات از دست می‌دهند. اگر وب‌سایت‌ها درآمدشان از تبلیغات را از دست بدهند، بعد از مدتی ورشکسته خواهند شد و از بین خواهند رفت. و اگر وب‌سایت‌ها از بین بروند، دیگر اطلاعات جدیدی نیست تا هوش مصنوعی بخواهد از آن‌ها برای استخراج پاسخ استفاده کند. آیا اینترنت به آخر خط رسیده است؟

راستش، اوضاع آنقدر‌ها هم بد نیست. گوگل سال‌ها است که با معرفی اسنیپت و Google OneBox در این مسیر قرار گرفته و اینترنت هنوز پابرجا است. اما خب طوری که بینگ جدید و موتورهای جستجوی هوش مصنوعی دیگر می‌خواهند پاسخ‌های کاربران را ارائه دهند، بی‌شک روند مرگ اینترنت به‌ شکلی که می‌شناسیم را تسریع خواهد کرد.

مایکروسافت می‌گوید بینگ جدید به منابعی که استفاده می‌کند، لینک می‌دهد و کاربران می‌توانند برای اطلاعات بیشتر، روی لینک‌ها کلیک کنند. اما مگر کل ماجرای هوش مصنوعی این نبود که عملکرد بهتری از موتورهای جستجوی قدیمی ارائه دهد؟ کار چت‌بات‌ها این است که محتوای وب‌سایت‌ها را خلاصه کنند تا کاربران دیگر نیازی به خواندن مطالب بیشتر برای پیدا کردن جواب سوال نداشته باشند. نمی‌شود که هم‌زمان ادعا کرد که داریم از گذشته به‌طور چشمگیری جدا می‌شویم و هم اینکه می‌خواهیم همان ساختارهای قدیمی جستجو در وب را حفظ کنیم.

اینکه قرار است در آینده چه شود، کسی نمی‌داند. شاید این نگرانی کاملاً بی‌مورد باشد و موتورهای جستجوی هوش مصنوعی کماکان کاربران را به سمت کلیک روی لینک‌ها هدایت کنند و برای وب‌سایت‌ها ترافیک ایجاد شود. نادلا که به آینده حسابی خوش‌بین است و می‌گوید شاید بینگ جدید باعث ایجاد رقابت بیشتر بین موتورهای جست‌وجو شود و بدین‌ترتیب، هم صاحبان وب‌سایت‌ها از مزایای بیشتری برای کسب‌ درآمد بهره‌مند شوند و هم انتخاب‌های بیشتری پیش روی کاربران گذاشته شود.

یا شاید هم واقعا دوران کسب درآمد وب‌سایت‌ها از تبلیغات به سر رسیده است. شاید وقتی کار چت‌بات‌ها با تمام محتویات اینترنت تمام شد، مدل کسب درآمد جدیدی از زیر خاکستر بیرون بیاید. شاید اصلاً این مسیری است که داریم به سمت ظهور متاورس پیش می‌رویم!‌ فعلا تنها چیزی که مشخص است این است که تکنولوژی‌ای که ظهورش از صد سال پیش، پیش‌بینی شده بود، به این راحتی‌ها از بین رفتنی نیست. فقط باید یاد گرفت چطور به بهترین شکل با آن تعامل کرد و اگر آخرالزمان رباتی در پیش است، چطور زنده ماند.


هر آنچه میخواهید در اینجا بخوانید
شاید از نوشته‌های زیر خوشتان بیاید
نظر خود را درباره این پست بنویسید ...

منوی سریع