ساخت بدافزرهای وحشتناکی با ChatGPT که فکرش را نمیکنید!
هر روز اخبار جدیدی در مورد قابلیت های چت ربات هوش مصنوعی ChatGPT منتشر می شود. این ابزار قطعا می تواند پاسخگوی هر علمی، فلسفی و … باشد. سوال کند یا در زمینه کدنویسی و حتی تحقیقات آلزایمر به شما کمک کند. با این حال، مانند هر فناوری دیگری که مبتنی بر هوش مصنوعی است، در برابر سوء استفاده نیز آسیب پذیر است.
محققان Check Point Software دریافتند که ChatGPT می تواند برای ایجاد ایمیل های فیشینگ استفاده شود. این چت بات همچنین می تواند در ترکیب با Codex برای توسعه و تزریق کدهای مخرب استفاده شود. شما گفتید که OpenAI ابزار Codex را برای تبدیل متن به کدهای مفهومی کامپیوتری طراحی کرده است.
با استفاده از این دو فناوری، محققان توانستهاند یک زنجیره کامل آلوده به بدافزار ایجاد کنند که با یک ایمیل فیشینگ شروع میشود و با یک سند اکسل حاوی کد VBA مخرب ادامه مییابد. تمام کدهای مخرب را می توان در یک فایل اجرایی کامپایل کرد و در سیستم های هدف اجرا کرد. ChatGPT اکثر ایمیلهای فیشینگ و جعل هویت را ایجاد میکند که بهتر و قانعکنندهتر از نمونههای واقعی هستند.
سرگئی شیکویچ Check Point Software می گوید:
ChatGPT به افراد بیشتری امکان کدنویسی را می دهد. اما خطر بزرگ این است که بسیاری از آنها احتمالاً به توسعه دهندگان بدافزار تبدیل می شوند – سرگئی شیکویچ
با این حال، وقتی صحبت از ChatGPT می شود، تکرار مهم است. شیکویچ می گوید که خروجی این چت بات از ابتدا کدگذاری نشده است. او روش استفاده از هوش مصنوعی فوق را با سرویس مترجم متن گوگل مقایسه می کند. جایی که بیشتر تولید همان چیزی است که شما به دنبال آن هستید. با این حال، مانند Google Translate، میتوانید این ابزار را مجبور کنید تا کد نهایی را با تغییر خروجیهای ChatGPT تولید کند.
لری ایمان کرانور، مدیر و استاد برجسته بوش در موسسه CyLab برای امنیت و حریم خصوصی و استاد سیستم های FORE در گروه علوم کامپیوتر و مهندسی سیاست عمومی در دانشگاه کارنگی ملون، بینش خود را با محققان در Check Point Software به اشتراک می گذارد. او می گوید که از ChatGPT برای تولید کد استفاده نکرده است. اما نمونه هایی را دیده که دیگران خلق کرده اند. کدی که این هوش مصنوعی تولید می کند خیلی پیچیده نیست. اما برخی از آنها کدهای اجرایی هستند.
ابزارهای هوش مصنوعی دیگری برای تولید کد وجود دارد و همه آنها هر روز در حال بهبود هستند. در حال حاضر، ChatGPT احتمالاً از نظر تولید متنی که برای مردم منطقی است، بهتر عمل می کند و برای ایجاد چیزهایی مانند ایمیل های جعلی واقع گرایانه مناسب تر است. به گفته IEEE، محققان هکرهایی را شناسایی کرده اند که از ChatGPT برای توسعه ابزارهای مخرب مانند کدهای سرقت اطلاعات استفاده می کنند.
Caernor می گوید:
من فکر می کنم امروزه استفاده موفقیت آمیز از ابزارهای هوش مصنوعی نیازمند دانش فنی است. اما انتظار می رود که به مرور زمان استخراج نتایج این ابزارها و انجام حملات سایبری آسان تر شود.- Kernor
بنابراین انتظار میرود بدافزارهای توسعهیافته با هوش مصنوعی در مقایسه با نمونههایی که توسط برنامهنویسان انسانی ایجاد شدهاند، در طول زمان بهبود یابد و در آینده نزدیک این ابزارها قادر به ایجاد حملات پیچیده در انواع مختلف و با سرعت بسیار بالا خواهند بود.
پیچیدگی های بیشتری می تواند ناشی از فقدان راه حل هایی باشد که برای تشخیص ایجاد کدهای مخرب در ChatGPT پیاده سازی شده اند. شیکویچ می گوید:
هیچ راه خوبی برای تشخیص اینکه آیا نرم افزار یا بدافزار خاص یا حتی یک ایمیل فیشینگ با ChatGPT نوشته شده است وجود ندارد. چون خروجی این چت بات هیچ امضای خاصی ندارد.- شیکویچ
OpenAI، به نوبه خود، در حال کار بر روی راهی برای علامت گذاری نتایج مدل های GPT است. شیکویچ او خاطرنشان می کند که از زمان انتشار یافته های Check Point Software، محققان تشخیص داده اند که دیگر امکان ایجاد ایمیل های فیشینگ با ChatGPT وجود ندارد.
227227
منبع