پلاس وی
2 سال پیش / خواندن دقیقه

هوش مصنوعی، چهره استادان را بر اساس رشته‌‌هایشان تصویرسازی کرد

هوش مصنوعی، چهره استادان را بر اساس رشته‌‌هایشان تصویرسازی کرد

آنچه خواهید دید، سوگیری‌های ذاتی مدل‌های هوش مصنوعیِ مولدِ تصویر مانند میدجرنی را به وضوح نشان می‌دهد. باید نگران شویم یا فقط ببینیم و بگذریم؟

انتشار یک ویدیوی ۴۰ ثانیه‌ای باعنوان «چهره استادان بر اساس رشته‌هایشان» در ردیت، بحث جالبی را به راه انداخته است. به عقیده بعضی‌ها و بر اساس تجاربشان این تصاویر به شدت به واقعیت نزدیک هستند. برخی دیگر که نگاه متفاوت‌تری دارند می‌گویند بیشتر این تصاویر فقط مردان جاافتاده و سفیدپوست را در لباس اساتید نشان می‌دهد که در مورد اکثر مؤسسات دانشگاهی مدرن، صادق نیست.

مولدهای تصویر هوش مصنوعی می‌توانند در مدل‌های خود سوگیری داشته باشند، زیرا آن‌ها از داده‌هایی که بر رویشان آموزش دیده‌اند، یاد می‌گیرند. داده‌ها نیز اغلب سوگیری‌های موجود در دنیای واقعی را در دل خود جا داده‌اند. چنین سوگیری‌هایی بسته به مدل خاص و داده‌های مورد استفاده برای آموزش، می‌توانند به روش‌های مختلفی ظاهر شوند.

به عنوان مثال، اگر یک مولد تصویر هوش مصنوعی بر روی مجموعه داده‌ای از تصاویر آموزش دیده باشد که گروه‌های خاصی از افراد را به‌طور نامتناسب نشان می‌دهد، مانند افراد با پوست روشن‌تر، تصاویر تولید‌شده نیز ممکن است این سوگیری را با تولید تصاویر کمتر از افراد با پوست تیره تر نشان دهند. اگر داده‌های آموزشی حاوی کلیشه‌ها یا سایر سوگیری‌ها باشد، مولد تصویر هوش مصنوعی ممکن است یاد بگیرد که آن سوگیری‌ها را در تصاویر تولیدشده خود بازتولید کند.

افزون‌بر‌این اگر خود داده‌های آموزشی هم بی‌طرف باشند، مدل همچنان ممکن است بر اساس نحوه برچسب‌گذاری یا حاشیه‌نویسی داده‌ها، سوگیری‌ها را یاد بگیرد. به عنوان مثال، اگر مجموعه داده، اشیا یا افراد خاصی را به گونه‌ای برچسب‌گذاری کند که کلیشه‌ها یا فرضیات را تقویت کند، مولد تصویر هوش مصنوعی ممکن است یاد بگیرد که این سوگیری‌ها را در خروجی خود تداوم ببخشد.

به نظر محققان از آنجایی که سیستم‌های تبدیل متن به تصویر با قابلیت یادگیری ماشینی رو به افزایش هستند و به عنوان خدمات تجاری، پذیرش رو به رشدی را تجربه می‌کنند، اولین گام ضروری برای کاهش خطر نتایج تبعیض‌آمیز آن‌ها، مشخص کردن سوگیری‌های اجتماعی‌ است که از خود نشان می‌دهند.

محققان و توسعه‌دهندگان باید داده‌های آموزشی خود را به دقت تنظیم کنند و از تکنیک‌هایی مانند داده‌افزایی، مکانیزم طبقه‌بندی منصفانه و آموزش خصمانه استفاده کنند تا اطمینان حاصل شود که مدل‌های حاصل تا حد ممکن عاری از سوگیری هستند.

امیدواریم تماشای این شاتر برایتان جالب بوده باشد. نظر شما در مورد تصاویر بازسازی‌شده از چهره اساتید رشته‌های مختلف چیست؟ آیا آن‌ها با تجاربتان هم‌خوانی داشتند؟ تا چه میزان با سوگیری مولدهای هوش مصنوعی موافق هستید؟ آیا شما هم هنگام کار با مولدهای هوش مصنوعی با چنین کلیشه‌ها و سوگیری‌های مواجه شده‌اید؟


هر آنچه میخواهید در اینجا بخوانید
شاید از نوشته‌های زیر خوشتان بیاید
نظر خود را درباره این پست بنویسید ...

منوی سریع