پلاس وی
2 سال پیش / خواندن دقیقه

مجرمان سایبری از ChatGPT برای ساخت بدافزارهای کاملاً جدید استفاده می‌کنند

مجرمان سایبری از ChatGPT برای ساخت بدافزارهای کاملاً جدید استفاده می‌کنند

هرروز خبرهای جدیدی درباره‌ی توانایی‌های چت‌بات هوش مصنوعی ChatGPT منتشر می‌شوند. این ابزار قطعاً می‌تواند به انواع سؤالات علمی، فلسفی و... جواب دهد یا در کدنویسی و حتی بررسی آلزایمر به شما کمک کند. باوجوداین، مثل هر فناوری مبتنی‌بر هوش مصنوعی دیگری، درمعرض خطر سوءاستفاده نیز قرار دارد.

محققان Check Point Software متوجه شدند ChatGPT می‌تواند برای ایجاد ایمیل‌های فیشینگ به‌کار گرفته شود. از این چت‌بات در ترکیب با Codex به‌منظور توسعه و تزریق کدهای مخرب نیز می‌توان استفاده کرد. گفتی است OpenAI ابزار Codex را برای تبدیل متن به کدهای مفهوم کامپیوتری طراحی کرده است.

محققان موفق شده‌اند با این دو فناوری زنجیره‌ای کاملاً آلوده به بدافزار ایجاد کند که از یک ایمیل فیشینگ آغاز می‌شود و با سند اکسل حاوی کدهای مخرب VBA ادامه پیدا می‌کند. کل کدهای بدافزار را می‌توان در یک فایل اجرایی کامپایل و آن را روی سیستم‌های هدف اجرا کند. ChatGPT بیشتر ایمیل‌های فیشینگ و جعل هویت بهتر و قانع‌کننده‌تری از نمونه‌های واقعی موجود تولید می‌کند.

سرگئی شیکویچ از شرکت Check Point Software می‌گوید:

به‌هرحال، وقتی از ChatGPT صحبت می‌شود، تکرار‌شدن امری مهم محسوب می‌شود. شیکویچ می‌گوید خروجی این چت‌بات ابتدا به‌صورت کد نبود. او روش استفاده از هوش مصنوعی مذکور را با سرویس مترجم متن گوگل مقایسه می‌کند؛ جایی‌ که اکثر خروجی‌ها همان چیزی است که به‌دنبال آن هستید. به‌هرحال، مثل گوگل ترنسلیت با اصلاح‌کردن خروجی‌های ChatGPT می‌توان این ابزار را به تولید کد نهایی مجبور کرد.

لوری فیث‌کرانور، مدیر و استاد برجسته‌ی Bosch در مؤسسه‌ی امنیت و حریم‌ خصوصی CyLab و استاد سیستم‌های FORE در واحد علوم کامپیوتر و مهندسی سیاست عمومی در دانشگاه کارنگی ملون، دیدگاه‌هایش شبیه محققان Check Point Software است. او می‌گوید از ChatGPT برای تولید کد استفاده نکرده؛ اما نمونه‌هایی را دیده است که دیگران ایجاد کرده‌اند. کدی که این هوش مصنوعی تولید می‌کند، خیلی پیچیده نیست؛ اما برخی از آن‌ها کدهای اجرایی هستند.

ابزارهای هوش مصنوعی دیگری نیز برای تولید کد وجود دارد و عملکرد همه‌ی آن‌ها هر‌روز بهتر می‌شود. درحال‌حاضر، ChatGPT احتمالاً ازنظر تولید متن‌های مفهوم برای انسان‌ها عملکرد بهتری دارد و برای ساخت مواردی مثل ایمیل‌های جعلی واقع‌گرایانه مناسب‌تر است. به‌گزارش Ieee، محققان هکرهایی را شناسایی کرده‌اند که از ChatGPT برای توسعه‌ی ابزارهای مخرب مانند کدهای سرقت اطلاعات استفاده کرده‌اند.

کرنور می‌گوید:

بدین‌ترتیب، انتظار می‌رود به‌مرور‌زمان بدافزارهای توسعه‌یافته با هوش مصنوعی درمقایسه‌با نمونه‌های ساخته‌شده‌ی برنامه‌نویسان انسانی بهبود پیدا کند و در آینده‌ای نزدیک، این ابزارها خواهند توانست حمله‌های پیچیده‌ای را در انواع مختلف و با سرعت بسیار زیاد ایجاد کنند.

پیچیدگی‌های بیشتر می‌تواند ناشی از نبود راهکارهایی باشد که به‌منظور تشخیص ایجاد کد مخرب در ChatGPT اِعمال شده‌اند. شیکویچ می‌گوید:

OpenAI به‌نوبه‌ی خود در حال‌ کار روی روشی است تا خروجی‌های مدل‌های GPT را با واترمارک متمایز کند. شیکویچ خاطرنشان می‌کند پس‌ از انتشار یافته‌های Check Point Software، محققان دریافتند امکان ایجاد ایمیل‌های فیشینگ با ChatGPT دیگر وجود ندارد.

شیکویچ برای محافظت درمقابل تهدیدهای ایجاد‌شده با هوش مصنوعی، به شرکت‌ها و کاربران توصیه می‌کند تدابیر امنیتی سایبری مناسبی اتخاذ کنند.

کرنور می‌گوید:

درحالی‌که سیستم‌های مبتنی‌بر هوش مصنوعی مثل ChatGPT قابلیت‌های بسیار زیادی برای تعییر نحوه‌ی تعامل انسان‌ها با فناوری دارند، خطرهایی نیز در این مسیر وجود دارد.

شیکویچ می‌گوید:


هر آنچه میخواهید در اینجا بخوانید
شاید از نوشته‌های زیر خوشتان بیاید
نظر خود را درباره این پست بنویسید ...

منوی سریع