ساخت بدافزرهای وحشتناکی با ChatGPT که فکرش را نمی‌کنید!


هر روز اخبار جدیدی در مورد قابلیت های چت ربات هوش مصنوعی ChatGPT منتشر می شود. این ابزار قطعا می تواند پاسخگوی هر علمی، فلسفی و … باشد. سوال کند یا در زمینه کدنویسی و حتی تحقیقات آلزایمر به شما کمک کند. با این حال، مانند هر فناوری دیگری که مبتنی بر هوش مصنوعی است، در برابر سوء استفاده نیز آسیب پذیر است.

محققان Check Point Software دریافتند که ChatGPT می تواند برای ایجاد ایمیل های فیشینگ استفاده شود. این چت بات همچنین می تواند در ترکیب با Codex برای توسعه و تزریق کدهای مخرب استفاده شود. شما گفتید که OpenAI ابزار Codex را برای تبدیل متن به کدهای مفهومی کامپیوتری طراحی کرده است.

با استفاده از این دو فناوری، محققان توانسته‌اند یک زنجیره کامل آلوده به بدافزار ایجاد کنند که با یک ایمیل فیشینگ شروع می‌شود و با یک سند اکسل حاوی کد VBA مخرب ادامه می‌یابد. تمام کدهای مخرب را می توان در یک فایل اجرایی کامپایل کرد و در سیستم های هدف اجرا کرد. ChatGPT اکثر ایمیل‌های فیشینگ و جعل هویت را ایجاد می‌کند که بهتر و قانع‌کننده‌تر از نمونه‌های واقعی هستند.

سرگئی شیکویچ Check Point Software می گوید:

ChatGPT به افراد بیشتری امکان کدنویسی را می دهد. اما خطر بزرگ این است که بسیاری از آنها احتمالاً به توسعه دهندگان بدافزار تبدیل می شوند – سرگئی شیکویچ

با این حال، وقتی صحبت از ChatGPT می شود، تکرار مهم است. شیکویچ می گوید که خروجی این چت بات از ابتدا کدگذاری نشده است. او روش استفاده از هوش مصنوعی فوق را با سرویس مترجم متن گوگل مقایسه می کند. جایی که بیشتر تولید همان چیزی است که شما به دنبال آن هستید. با این حال، مانند Google Translate، می‌توانید این ابزار را مجبور کنید تا کد نهایی را با تغییر خروجی‌های ChatGPT تولید کند.

READ  درخشش نوری عجیب در آسمان کیف پایتخت اوکراین/ ناسا واکنش نشان داد/ عکس

لری ایمان کرانور، مدیر و استاد برجسته بوش در موسسه CyLab برای امنیت و حریم خصوصی و استاد سیستم های FORE در گروه علوم کامپیوتر و مهندسی سیاست عمومی در دانشگاه کارنگی ملون، بینش خود را با محققان در Check Point Software به اشتراک می گذارد. او می گوید که از ChatGPT برای تولید کد استفاده نکرده است. اما نمونه هایی را دیده که دیگران خلق کرده اند. کدی که این هوش مصنوعی تولید می کند خیلی پیچیده نیست. اما برخی از آنها کدهای اجرایی هستند.

ابزارهای هوش مصنوعی دیگری برای تولید کد وجود دارد و همه آنها هر روز در حال بهبود هستند. در حال حاضر، ChatGPT احتمالاً از نظر تولید متنی که برای مردم منطقی است، بهتر عمل می کند و برای ایجاد چیزهایی مانند ایمیل های جعلی واقع گرایانه مناسب تر است. به گفته IEEE، محققان هکرهایی را شناسایی کرده اند که از ChatGPT برای توسعه ابزارهای مخرب مانند کدهای سرقت اطلاعات استفاده می کنند.

Caernor می گوید:

من فکر می کنم امروزه استفاده موفقیت آمیز از ابزارهای هوش مصنوعی نیازمند دانش فنی است. اما انتظار می رود که به مرور زمان استخراج نتایج این ابزارها و انجام حملات سایبری آسان تر شود.- Kernor

بنابراین انتظار می‌رود بدافزارهای توسعه‌یافته با هوش مصنوعی در مقایسه با نمونه‌هایی که توسط برنامه‌نویسان انسانی ایجاد شده‌اند، در طول زمان بهبود یابد و در آینده نزدیک این ابزارها قادر به ایجاد حملات پیچیده در انواع مختلف و با سرعت بسیار بالا خواهند بود.

پیچیدگی های بیشتری می تواند ناشی از فقدان راه حل هایی باشد که برای تشخیص ایجاد کدهای مخرب در ChatGPT پیاده سازی شده اند. شیکویچ می گوید:

READ  انتقام گرفتن به سبک ایلان ماسک/ کلاه ثروت‌مندترین مرد جهان را برداشته‌اند؟

هیچ راه خوبی برای تشخیص اینکه آیا نرم افزار یا بدافزار خاص یا حتی یک ایمیل فیشینگ با ChatGPT نوشته شده است وجود ندارد. چون خروجی این چت بات هیچ امضای خاصی ندارد.- شیکویچ

OpenAI، به نوبه خود، در حال کار بر روی راهی برای علامت گذاری نتایج مدل های GPT است. شیکویچ او خاطرنشان می کند که از زمان انتشار یافته های Check Point Software، محققان تشخیص داده اند که دیگر امکان ایجاد ایمیل های فیشینگ با ChatGPT وجود ندارد.

227227


منبع

نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد.

دکمه بازگشت به بالا