تشخیص حالت احساسی و دروغ با هوش مصنوعی
بیشتر متخصصانی که به دنیای هوش مصنوعی وارد میشوند، ابتدا کار خود را بهعنوان یک برنامهنویس کامپیوتر آغاز میکنند و برای مدتها در این حرفه باقی میمانند. با این حال، کارشناسان بر این باور هستند که ماشینهای هوشمند امروزی به اندازهای پیشرفته شدهاند که میتوانند حالت احساسی و حتا دروغ را از طریق تحلیل صورت انسان متوجه بشوند که موضوع مهمی برای ناشران تبلیغات و سازمانهای مختلف است.
امروزه، دانشمندان کامپیوتر در حال ساخت سیستمعاملهایی هستند که آنچه یک میلیارد انسان هر روز میبینند را کنترل میکنند، خودروهایی را میساند که میتوانند تصمیم بگیرند که چگونه در خیابانها حرکت کنند و موفق به ساخت سلاحهایی شدهاند که میتوانند بهشکل هوشمند به مجرمان شلیک کنند. به عقیده برخی از کارشناسان این رویکردها بیانگر سقوط اخلاقی در حوزه فناوری است.
با اینحال، برخی دیگر از کاربران بر این باور هستند که این درست همان هوشمندی ماشین است. ما در حال استفاده از محاسباتی هستیم که همه تصمیمات ما را مرتب میکنند و به تصمیمگیریهای ما شکل میدهند. جالب آنکه در برخی موارد به پاسخهایی میدهند که هیچ مشخصی برای آنها وجود ندارد و بیشتر ذهنی هستند.
ما پرسشهایی شبیه به مواردی مثل شرکت چه کسی را باید استخدام کند، به درخواست دوستی چه فردی باید پاسخ داده، چهره چه افرادی بیشتر شبیه به مجرمان است، کدام بخش خبرها یا فیلم باید به مردم توصیه بشه و موارد این چنینی را از آنها میپرسیم و آنها پاسخ میدهند.
ما مدتها است در حال استفاده از کامپیوترها هستیم، اما این مرتبه أوضاع فرق کرده است. این یک چرخش تاریخی است، زیرا نمیتوانیم محاسبات را برای تصمیمهای ذهنی نگه داریم مانند روش محاسباتی برای پرواز هواپیما، ساخت پلها و نمونههای مشابه. آیا هواپیماها امن هستند، آیا این پل فرو میریزد؟ این چنین است، ما براساس معیارهای روشن توافق کردیم و قوانین طبیعت را برای راهنمایی داریم.
ما به سختی در تلاش هستیم تا برای انجام کارهای پیچیدهتر نرمافزارهای قدرتمندری بسازیم، اما این موضوع باعث میشود تا شفافیت نرمافزارها به واسطه پیچیدگی کمتر. در یک دهه گذشته الگوریتمهای پیچیده با گامهای بلندی ساخته شدهاند. آنها میتوانند صورت انسان را بازشناسایی کنند، میتوانند دست خط را تشخیص بدهند، میتوانند تقلب در کارت اعتباری را کشف کنند و اسپمها را مسدود کنند، میتوانند زبانها را ترجمه کنند و می توانند تومورها را در تصاویر پزشکی کشف کنند یا در بازیهای شطرنج و گو پیروز میدان باشند.
بیشتر این پیشرفتها از روشی به نام یادگیری ماشین آمدهاند. یادگیری ماشین با برنامهنویسی سنتی متفاوت هست که به کامپیوتر جزئیات دقیق دستورات پر زحمت را میدهید. این بیشتر شبیه این است که شما یک سیستم گرفتهاید و اطلاعات زیاد بدون ساختار مثل اطلاعاتی که ما در زندگی دیجیتال خود تولید میکنیم. این سیستم بوسیله گردش در بین اطلاعات یاد میگیرد. مشکلی که وجود دارد این است که این سامانهها تنها یک پاسخ منطقی ارایه نمیکنند و در بیشتر موارد یک پاسخ ساده نمیدهد. این سامانهها بیشتر بر مبنای احتمال کار میکنند.
مدیر سیستمهای هوش مصنوعی گوگل این مفهوم را اثر غیر منطقی اطلاعات توصیف کرد. بخش نه چندان داستان این موضوع این است که ما واقعا نمیفهمیم سیستم چه یاد میگیرد. در حقیقت این قدرت یادگیری ماشین است. این کمتر شبیه دادن دستورالعمل به کامپیوتر است، این بیشتر شبیه یاد دادن به یک ماشین زنده است. ما واقعا نمیفهمیم و کنترل نمیکنیم. این مشکل اصلی سامانههای هوشمند است. مشکلی است که باعث میشود سیستم هوش مصنوعی چیزها را اشتباه یاد بگیرد و تا هنگامی که نکات را به شکل درستی میآموزد بازهم قادر به توصیف دقیق انجام اینکار نیستیم. ما نمیدانیم یک ماشین هوشمند در حال فکر کردن به چه چیزی است.
یک الگوریتم استخدام را تصور کنید. سیستمی که مردم را با استفاده از سیستم یادگیری ماشین استخدام میکند. سیستمی که بر اساس اطلاعات کارمندان قبلی آموزش دیده شده و دستور دارد که پیدا و استخدام کند افرادی که بهروری بالایی برای شرکت دارند. به نظر خوب میاد. مدیران منابع انسانی و مدیران اجرایی که از این سیستمهای برای استخدام استفاده میکردند، خیلی هیجان زده بودند. آنها فکر میکردند که این رویکرد، استخدام را بیشتر هدفمند و کمتر مغروضانه خواهد کرد و به افراد شانس بهتری میدهد که بدون غرضورزی مدیران منابع انسانی استخدام شوند.
با اینحال، این سامانهها به تدریج به سمت پیچیدهتر شدن گام بر میدارند. بهتازگی سیستمهای محاسبهگر میتوانند به همه چیزهای شما از طریق خرده اطلاعات دیجیتالی پیببرند، حتی اگر شما آن چیزها را فاش نکرده باشید. آنها به گرایشهای اجتماعی، ویژگیهای شخصیتان و دانستههای شما دسترسی خواهند داشت و توانستهاند به قدرت پیشبینی با دقت زیادی دست پیدا کنند. جالب آنکه برای چیزهایی که حتی آنها را فاش نکردهاید قادر به نتیجهگیری و استنتاج هستند.
بهطور مثال، برخی از توسعهدهندگان الگوریتمهای یادگیری ماشین در حال کار روی سیستمهای محاسبهگری هستند تا شانس افسردگی افراد را با استفاده از اطلاعات شبکههای اجتماعی پیشبینی کنند و جالب آنکه در برخی موارد نتایج هیجانانگیز ارایه میکنند. سیستم احتمال افسردگی را میتواند ماهها قبل از شروع علائم بیماری پیشبینی کند. جالب آنکه بیمار هیچ علامتی از بیماری ندارد، اما سامانه پیشبینی میکند. بدون شک در حوزه روانشناسی این یک دستاورد بزرگ است، اما یک چنین حالتی را در فضای استخدام تصور کنید.
فرض کنید یک سامانه استخدام هوشمند یک متخصص حرفهای را به دلیل احتمال بالای افسردگی در آینده، استخدام نکند، در حالی که فرد در زمان استخدام شدن هیچ نشانهای از افسردگی را ندارد و ممکن است در آینده به احتمال زیاد دچار افسردگی شوند یا اگر زنانی که احتمال دارد در یکی دو سال آینده باردار شوند، اما اکنون حامله نیستد را کنار بگذارد؟
برخی کارشناسان برای مقابله با این حالتهای تدافعی سامانههای هوشمند، مکانیزم حفاظت چیست را مطرح کردهاند و اعلام کردهاند بهتر است الگوریتمهای یادگیری ماشین به چیزی شبیه به یک جعبه سیاه تجهیز شوند.
مسئله دیگری که وجود دارد این است که سامانههای هوشمند اغلب روی اطلاعات تولید شده توسط کارهای ما آموزش داده میشوند تا آثار به جای مانده از انسان. آنها فقط میتوانند تمایلات ما را منعکس کنند. این سیستمها میتوانند تمایلات ما را انتخاب کنند و آنرا تقویت کرده و آنرا دوباره به ما نشان دهند، در حالی که به خودمان میگویم: ما فقط در حال بررسی هستیم.
یکی از موارد خطرناک در پیشبینیهای مغرضانه خلاصه میشود. در نمونهای در یکی از شهرهای امریکا فردی به شش سال زندان برای فرار از دست پلیس محکوم شد. خیلی از کاربران از این نکته اطلاعی ندارند، اما الگوریتمهای هوشمند بهطور افزایندهای در آزادی مشروط و صدور حکم به کار گرفته میشوند. بسیاری سوال میکنند که آنها چگونه این کار را انجام میدهند؟ پروپابلیکا، یک موسسه تحقیقاتی غیرانتفاعی خیلی از الگوریتمها را با اطلاعات عمومی که آنها پیدا کردهاند مورد بررسی قرار دادهاند و دریافتند که این پیشبینیها مبتنی بر تمایلات بوده و این قدرت پیشبینی اشتباه، نه فقظ شانسی ( بلکه به عمد) و بهطور اشتباه نرخ مجرمان بودن متهمان سیاهپوست نسبت به سفید پوست را دو برابر بیشتر در نظر گرفته است.
این سیستمها میتوانند اشتباه اینچنینی را بهراحتی مرتکب شوند. آیا شما واتسون، سیستم ماشین هوشمند آیبیام که با انسان مسابقه جوپرتری را داد به خاطر دارید؟ واتسون بازیگر خوبی در مسابقه بود. اما در آخرین جوپرتی از واتسون پرسیده شد «آیا بزرگترین فرودگاه که برای یک قهرمان جنگ جهانی دوم در ایالات متحده نامگذاری شد را میداند؟ شرکتکنندگان شیکاگو را پاسخ دادند در حالی که واتسون در طرف دیگر پاسخ داد تورنتو! سیستم به شکل روشنی اشتباهی را مرتکب شده بود که هیچ انسانی انجام نمیدهد.
ماشین هوشمند میتواند یک چنین اشتباهات خطرناکی را مرتبک شوند، با اینحال در جاهایی که انتظار و آمادگی آنرا ندارید، پیامدهای این اشتباه فاجعهآمیز خواهد بود. به ویژه در موقعیتهایی که به دلیل خرده رفتارها در روال عادی زندگی یک انسان مانع استخدام او شوند.
در ماه می 2010، یک خرابی کوتاه مدت ناشی در در الگوریتم فروش وال استریت باعث خرابی چند میلیون دلاری تنها در مدت زمان 36 دقیقه شد. حال تصور کنید چنین خطایی در ارتباط با سلاحهای نظامی رخ دهد.
واقعیت این است که این انسانها هستند که همیشه تمایلات را میسازند. الگوریتمهای هوش مصنوعی بیشتر از انسانها دچار اشتباه میشوند و ما نمیتوانیم از این مسئله فرار کنیم. نمیتوانیم مسئولیتهایمان در قبال ماشینها را نادیده بگیریم. هوش مصنوعی نمیتواند به ما یک کارت خارج شدن از اخلاق به صورت رایگان بدهد.
دانشمند اطلاعات، فرد بنسون این را شستشوی ریاضی مینامد. ما مسولیت انجام هرگونه رفتاری که الگوریتمها مرتکب میشوند را باید بپذیریم. ما باید قبول کنیم که محاسبات ریاضی برای ارزش انباشته و به هم ریخته و امور انسانی عینیت ندارد. میتوانیم از محاسبات استفاده کنیم تا به تصمیمات بهتری برسیم، اما نباید از بحث اخلاق در فناوری غافل شویم. هوش مصنوعی در کنار ما است و این بدان معنا است که باید محکمتر ارزشها و اخلاق انسانی را نگه داریم.