هرروز خبرهای جدیدی دربارهی تواناییهای چتبات هوش مصنوعی ChatGPT منتشر میشوند. این ابزار قطعاً میتواند به انواع سؤالات علمی، فلسفی و... جواب دهد یا در کدنویسی و حتی بررسی آلزایمر به شما کمک کند. باوجوداین، مثل هر فناوری مبتنیبر هوش مصنوعی دیگری، درمعرض خطر سوءاستفاده نیز قرار دارد.
محققان Check Point Software متوجه شدند ChatGPT میتواند برای ایجاد ایمیلهای فیشینگ بهکار گرفته شود. از این چتبات در ترکیب با Codex بهمنظور توسعه و تزریق کدهای مخرب نیز میتوان استفاده کرد. گفتی است OpenAI ابزار Codex را برای تبدیل متن به کدهای مفهوم کامپیوتری طراحی کرده است.
محققان موفق شدهاند با این دو فناوری زنجیرهای کاملاً آلوده به بدافزار ایجاد کند که از یک ایمیل فیشینگ آغاز میشود و با سند اکسل حاوی کدهای مخرب VBA ادامه پیدا میکند. کل کدهای بدافزار را میتوان در یک فایل اجرایی کامپایل و آن را روی سیستمهای هدف اجرا کند. ChatGPT بیشتر ایمیلهای فیشینگ و جعل هویت بهتر و قانعکنندهتری از نمونههای واقعی موجود تولید میکند.
سرگئی شیکویچ از شرکت Check Point Software میگوید:
بههرحال، وقتی از ChatGPT صحبت میشود، تکرارشدن امری مهم محسوب میشود. شیکویچ میگوید خروجی این چتبات ابتدا بهصورت کد نبود. او روش استفاده از هوش مصنوعی مذکور را با سرویس مترجم متن گوگل مقایسه میکند؛ جایی که اکثر خروجیها همان چیزی است که بهدنبال آن هستید. بههرحال، مثل گوگل ترنسلیت با اصلاحکردن خروجیهای ChatGPT میتوان این ابزار را به تولید کد نهایی مجبور کرد.
لوری فیثکرانور، مدیر و استاد برجستهی Bosch در مؤسسهی امنیت و حریم خصوصی CyLab و استاد سیستمهای FORE در واحد علوم کامپیوتر و مهندسی سیاست عمومی در دانشگاه کارنگی ملون، دیدگاههایش شبیه محققان Check Point Software است. او میگوید از ChatGPT برای تولید کد استفاده نکرده؛ اما نمونههایی را دیده است که دیگران ایجاد کردهاند. کدی که این هوش مصنوعی تولید میکند، خیلی پیچیده نیست؛ اما برخی از آنها کدهای اجرایی هستند.
ابزارهای هوش مصنوعی دیگری نیز برای تولید کد وجود دارد و عملکرد همهی آنها هرروز بهتر میشود. درحالحاضر، ChatGPT احتمالاً ازنظر تولید متنهای مفهوم برای انسانها عملکرد بهتری دارد و برای ساخت مواردی مثل ایمیلهای جعلی واقعگرایانه مناسبتر است. بهگزارش Ieee، محققان هکرهایی را شناسایی کردهاند که از ChatGPT برای توسعهی ابزارهای مخرب مانند کدهای سرقت اطلاعات استفاده کردهاند.
کرنور میگوید:
بدینترتیب، انتظار میرود بهمرورزمان بدافزارهای توسعهیافته با هوش مصنوعی درمقایسهبا نمونههای ساختهشدهی برنامهنویسان انسانی بهبود پیدا کند و در آیندهای نزدیک، این ابزارها خواهند توانست حملههای پیچیدهای را در انواع مختلف و با سرعت بسیار زیاد ایجاد کنند.
پیچیدگیهای بیشتر میتواند ناشی از نبود راهکارهایی باشد که بهمنظور تشخیص ایجاد کد مخرب در ChatGPT اِعمال شدهاند. شیکویچ میگوید:
OpenAI بهنوبهی خود در حال کار روی روشی است تا خروجیهای مدلهای GPT را با واترمارک متمایز کند. شیکویچ خاطرنشان میکند پس از انتشار یافتههای Check Point Software، محققان دریافتند امکان ایجاد ایمیلهای فیشینگ با ChatGPT دیگر وجود ندارد.
شیکویچ برای محافظت درمقابل تهدیدهای ایجادشده با هوش مصنوعی، به شرکتها و کاربران توصیه میکند تدابیر امنیتی سایبری مناسبی اتخاذ کنند.
کرنور میگوید:
درحالیکه سیستمهای مبتنیبر هوش مصنوعی مثل ChatGPT قابلیتهای بسیار زیادی برای تعییر نحوهی تعامل انسانها با فناوری دارند، خطرهایی نیز در این مسیر وجود دارد.
شیکویچ میگوید: