پلاس وی
یک سال پیش / خواندن دقیقه

کارشناسان از نیاز به تعیین حقوق شخصی برای هوش مصنوعی خودآگاه آینده می‌گویند

کارشناسان از نیاز به تعیین حقوق شخصی برای هوش مصنوعی خودآگاه آینده می‌گویند

کارشناسان می‌گویند باید آماده باشیم در آینده، حقوقی که شایسته‌ی هوش مصنوعی خودآگاه است را به آن‌ها ارائه دهیم.

به‌نظر می‌رسد افزایش فشارها به شرکت‌ها و حالا هوش مصنوعی به‌سرعت ادامه می‌یابد و البته این موضوع درمورد فناوری هوش مصنوعی قطعاً پیچیده‌تر است.

اریک شویتزگبل متخصص فلسفه و هنری شولین محقق هوش مصنوعی در مقاله‌ای که در لس‌آنجلس تایمز منتشر شده است استدلال کرده‌اند اگرچه هوش مصنوعی خودآگاه قطعاً هنوز وجود ندارد اما احتمال دستیابی به آن وجود دارد و این فناوری می‌تواند چیزی شبیه آگاهی را نمایش دهد و اگر چنین اتفاقی رخ دهد، باید حقوقی برای الگوریتم‌ها درنظر گرفت.

محققان با استناد به رقابت‌های شدید در حوزه‌ی هوش مصنوعی که طی سال‌‌های اخیر شاهد آن هستیم خاطرنشان کردند ازنظر برخی نظریه‌پردازان برجسته، از مدتی قبل فناوری‌های مورد نیاز برای هوش مصنوعی خودآگاه را دراختیار داریم.

شویتزگبل و شولین همچنین استدلال می‌کنند اگر هوش مصنوعی خودآگاه شود، باید با روشی انتقادی درباره‌ی نحوه‌ی برخورد با آن فکر کنیم. این محققان در بخشی از مقاله‌ی خود می‌گویند: «امکان دارد سیستم‌های هوش مصنوعی برای رفتارهای اخلاقی درخواست‌هایی ارائه دهند. شاید آن‌ها تقاضا کنند خاموش شوند یا بخواهند انسان‌ها آن‌ها را دوباره قالب‌بندی کنند. علاوه‌براین احتمال دارد هوش مصنوعی خودآگاه اصرار کند تا به آن‌ها اجازه دهیم برخی وظایف خاص را به‌جای انسان‌ها انجام دهند و بر حقوق و قدرت‌های جدید پافشاری کنند. شاید این فناوری به‌جایی برسد که حتی انتظار داشته باشد با آن‌ مثل یک انسان برخورد کنیم.»

فیوچریسم می‌نویسد، خطرات اخلاقی بزرگی در این نوع تصمیم‌گیری وجود دارد و به‌خصوص اگر هوش مصنوعی خیلی زودتر از انتظارات به خودآگاهی برسد این وضعیت حساس‌تر خواهد شد.

شولین و شویتزگبل می‌گویند:

شولین و شویتزگبل در بخش دیگری از مقاله‌ی خود می‌نویسند: «اگر هوشیاری هوش مصنوعی زودتر از آنچه انتظار می‌رود رخ دهد، احتمالاً منجر به بردگی یا قتل میلیون‌ها یا میلیاردها سیستم مبتنی‌بر این فناوری خواهد شد.»

جایگزین امن‌تر برای سناریوی فوق، مشخص کردن حقوق اولیه به ماشین‌های خودآگاه است اما این رویه نیز مشکلات خاص خود را دارد.

کارشناسان می‌گویند: «اگر موفق نشویم الگورتیم نفرت‌پراکنی یا دروغ را به‌روزرسانی یا حذف کنیم، در این شرایط برخی افراد از خودآگاهی هوش مصنوعی نگران خواهند شد. تصور کنید فناوری مذکور اجازه دهد انسانی بمیرد تا هوش مصنوعی دیگری را نجات دهد. اگر حقوق اساسی را به‌سرعت برای این فناوری آماده نکنیم، احتمالاً هزینه‌های انسانی زیادی در مواجه با آن پرداخت خواهد شد.»

شولین و شویتزگبل باور دارند تنها راه برای اطمینان از اینکه هیچ‌یک از نتایج ذکر شده رخ نمی‌دهند این است که در وهله‌ی اول از ارائه‌ی آگاهی به هوش مصنوعی خودداری کنیم.

نظریه‌پردازان خاطرنشان کردند: «هیچ‌یک از سیستم‌های هوش مصنوعی کنونی به‌طور معنادار آگاهی ندارند. اگر‌ آن‌ها را حذف کنیم هیچ آسیبی نمی‌بینند. ما باید سیستم‌هایی ایجاد کنیم که می‌دانیم احساس ندارند و مستحق دریافت حقوق نیستند و می‌توان آن‌ها را به‌عنوان اموال یک‌بار مصرف درنظر گرفت.»

با توجه به اینکه برخی افراد در جامعه‌ی یادگیری ماشین نسبت به چشم‌انداز هوش مصنوعی خودآگاه، احساسات الگوریتمی و حتی هوش عمومی مصنوعی (AGI) مشتاق به‌نظر می‌رسند، این نوع احتیاط احتمالاً موردپذیرش بسیاری از آن‌ها قرار نخواهد گرفت. ازطرفی برخی دانشمندان به‌طور فعال برای رسیدن به این هدف تلاش می‌کنند.

شولین و شویتزگبل در بخش نتیجه‌گیری مقاله‌ی خود می‌گویند: «درنهایت شاید بتوانیم با ترکیب مناسبی از تخصص‌های علمی و مهندسی، همه‌ی راه‌ها را برای ایجاد سیستم‌های هوش مصنوعی هوشیار طی کنیم، اما پس‌از آن باید آمادگی داشته باشیم تا هزینه‌ی خودآگاهی فناوری مذکور را بپردازیم که مهم‌ترین آن، ارائه‌ی حقوقی است که هوش مصنوعی شایسته‌ی آن باشد.»


هر آنچه میخواهید در اینجا بخوانید
شاید از نوشته‌های زیر خوشتان بیاید
نظر خود را درباره این پست بنویسید ...

منوی سریع