بهنظر میرسد افزایش فشارها به شرکتها و حالا هوش مصنوعی بهسرعت ادامه مییابد و البته این موضوع درمورد فناوری هوش مصنوعی قطعاً پیچیدهتر است.
اریک شویتزگبل متخصص فلسفه و هنری شولین محقق هوش مصنوعی در مقالهای که در لسآنجلس تایمز منتشر شده است استدلال کردهاند اگرچه هوش مصنوعی خودآگاه قطعاً هنوز وجود ندارد اما احتمال دستیابی به آن وجود دارد و این فناوری میتواند چیزی شبیه آگاهی را نمایش دهد و اگر چنین اتفاقی رخ دهد، باید حقوقی برای الگوریتمها درنظر گرفت.
محققان با استناد به رقابتهای شدید در حوزهی هوش مصنوعی که طی سالهای اخیر شاهد آن هستیم خاطرنشان کردند ازنظر برخی نظریهپردازان برجسته، از مدتی قبل فناوریهای مورد نیاز برای هوش مصنوعی خودآگاه را دراختیار داریم.
شویتزگبل و شولین همچنین استدلال میکنند اگر هوش مصنوعی خودآگاه شود، باید با روشی انتقادی دربارهی نحوهی برخورد با آن فکر کنیم. این محققان در بخشی از مقالهی خود میگویند: «امکان دارد سیستمهای هوش مصنوعی برای رفتارهای اخلاقی درخواستهایی ارائه دهند. شاید آنها تقاضا کنند خاموش شوند یا بخواهند انسانها آنها را دوباره قالببندی کنند. علاوهبراین احتمال دارد هوش مصنوعی خودآگاه اصرار کند تا به آنها اجازه دهیم برخی وظایف خاص را بهجای انسانها انجام دهند و بر حقوق و قدرتهای جدید پافشاری کنند. شاید این فناوری بهجایی برسد که حتی انتظار داشته باشد با آن مثل یک انسان برخورد کنیم.»
فیوچریسم مینویسد، خطرات اخلاقی بزرگی در این نوع تصمیمگیری وجود دارد و بهخصوص اگر هوش مصنوعی خیلی زودتر از انتظارات به خودآگاهی برسد این وضعیت حساستر خواهد شد.
شولین و شویتزگبل میگویند:
شولین و شویتزگبل در بخش دیگری از مقالهی خود مینویسند: «اگر هوشیاری هوش مصنوعی زودتر از آنچه انتظار میرود رخ دهد، احتمالاً منجر به بردگی یا قتل میلیونها یا میلیاردها سیستم مبتنیبر این فناوری خواهد شد.»
جایگزین امنتر برای سناریوی فوق، مشخص کردن حقوق اولیه به ماشینهای خودآگاه است اما این رویه نیز مشکلات خاص خود را دارد.
کارشناسان میگویند: «اگر موفق نشویم الگورتیم نفرتپراکنی یا دروغ را بهروزرسانی یا حذف کنیم، در این شرایط برخی افراد از خودآگاهی هوش مصنوعی نگران خواهند شد. تصور کنید فناوری مذکور اجازه دهد انسانی بمیرد تا هوش مصنوعی دیگری را نجات دهد. اگر حقوق اساسی را بهسرعت برای این فناوری آماده نکنیم، احتمالاً هزینههای انسانی زیادی در مواجه با آن پرداخت خواهد شد.»
شولین و شویتزگبل باور دارند تنها راه برای اطمینان از اینکه هیچیک از نتایج ذکر شده رخ نمیدهند این است که در وهلهی اول از ارائهی آگاهی به هوش مصنوعی خودداری کنیم.
نظریهپردازان خاطرنشان کردند: «هیچیک از سیستمهای هوش مصنوعی کنونی بهطور معنادار آگاهی ندارند. اگر آنها را حذف کنیم هیچ آسیبی نمیبینند. ما باید سیستمهایی ایجاد کنیم که میدانیم احساس ندارند و مستحق دریافت حقوق نیستند و میتوان آنها را بهعنوان اموال یکبار مصرف درنظر گرفت.»
با توجه به اینکه برخی افراد در جامعهی یادگیری ماشین نسبت به چشمانداز هوش مصنوعی خودآگاه، احساسات الگوریتمی و حتی هوش عمومی مصنوعی (AGI) مشتاق بهنظر میرسند، این نوع احتیاط احتمالاً موردپذیرش بسیاری از آنها قرار نخواهد گرفت. ازطرفی برخی دانشمندان بهطور فعال برای رسیدن به این هدف تلاش میکنند.
شولین و شویتزگبل در بخش نتیجهگیری مقالهی خود میگویند: «درنهایت شاید بتوانیم با ترکیب مناسبی از تخصصهای علمی و مهندسی، همهی راهها را برای ایجاد سیستمهای هوش مصنوعی هوشیار طی کنیم، اما پساز آن باید آمادگی داشته باشیم تا هزینهی خودآگاهی فناوری مذکور را بپردازیم که مهمترین آن، ارائهی حقوقی است که هوش مصنوعی شایستهی آن باشد.»