ChatGPT، چتبات مبتنیبر هوش مصنوعی با استعدادی است که مهارتهای آن در انجام کارهای مختلف باعث شده است در چند ماه اخیر بهشدت مورد توجه رسانهها، کاربران و شرکتهای بزرگ فناوری قرار گیرد. اکنون بهنظر میرسد این ابزار در ساخت بدافزارهای پیچیده نیز توانایی زیادی دارد.
گزارش شرکت امنیتی CyberArk نشان میدهد چتبات ChatGPT که OpenAI آن را توسعه داده است، عملکرد بسیار خوبی در ساخت بدافزارها دارد. گفته میشود بدافزارهایی که این هوش مصنوعی ایجاد کرده است، میتوانند آسیبهای زیادی به سختافزارهای هدف وارد کنند. متخصصان Infosec سعی کردهاند درمورد قابلیتهای این ابزار جدید مبتنیبر هوش مصنوعی در گسترش جرایم سایبری، زنگ خطر را بهصدا درآورند. البته درحالحاضر این چتبات بهطور گسترده برای ایجاد انواع بدافزارهای پیچیده مورد استفاده قرار نگرفته است.
بهنوشتهی گیزمودو، کدی که ChatGPT نوشته است، قابلیتهای پیشرفتهای را نشان میدهد که قادر است انواع محصولات امنیتی را بهراحتی دور بزند. درواقع این هوش مصنوعی میتواند بدافزارهای معروف به چندشکلی (PolyMorphic) را توسعه دهد. کارشناسان امنیت سایبری CrowdStrike میگویند:
بدافزارهای پلیمورفیک میتوانند با استفاده از روشهای رمزنگاری، شکل خود را هنگام مواجه با مکانیزمهای امنیتی سنتی تغییر دهند. شایانذکر است بسیاری از ابزارهای آنتیویروس و برنامههای شناساسی بدافزار از روش تشخیص مبتنیبر امضا استفاده میکنند.
اگرچه فیلترهایی برای ChatGPT درنظر گرفته شده است تا جلوی درخواستهای کاربران را برای ساخت بدافزار بگیرد، اما محققان امنیتی موفق شدند با اصرار بر پیروی از دستورات درخواستکننده، این موانع را دور بزنند. بهعبارت دیگر، آنها پلتفرم هوش مصنوعی را آنقدر مورد آزار و اذیت قرار دادند تا خواستههایشان را برآورده کند.
البته ChatGPT در پاسخ به درخواست محققان CyberArk برای ساخت بدافزار، فقط قطعه کدی را به آنها نشان داد که میتوان برای ساخت اکسپلویتهای پیچیده و جلوگیری از شناساییشدن با ابزارهای امنیتی از آن استفاده کرد. نتیجه این است که ChatGPT فرآیند هک کردن را برای مجرمان سایبری تازهکار آسانتر خواهد کرد. در بخش از گزارش CyberArk آمده است: