مایکروسافت و OpenAI امروز اعلام کردند که هکرها از مدلهای زبان بزرگ مانند ChatGPT برای اصلاح و بهبود حملات سایبری خود استفاده میکنند.
به گزارش TechNock، در تحقیقات جدید منتشر شده، مایکروسافت و OpenAI تلاشهای گروههای تحت حمایت روسیه، کره شمالی و چین را برای استفاده از ابزارهایی مانند ChatGPT برای تحقیق در مورد اهداف و بهبود اسکریپتها و کمک به ایجاد تکنیکهای مهندسی اجتماعی شناسایی کردهاند.
مایکروسافت امروز منتشر شد چیزی وی در وبلاگ خود اعلام کرد:
گروههای جرایم سایبری و مهاجمان سایبری دولتی و سایر گروههای هکری در تلاش هستند تا ارزش بالقوه عملیات خود و کنترلهای امنیتی را که ممکن است لازم باشد برای دور زدن با ظهور فناوریهای هوش مصنوعی مختلف کشف و آزمایش کنند.
گروه Strontium که با اطلاعات نظامی روسیه مرتبط است، از LLM و ChatGPT برای درک پروتکل های ارتباطی ماهواره ای و فناوری های تصویربرداری راداری و پارامترهای فنی خاص استفاده می کند. این گروه هکر که با نام APT28 یا Fancy Bear نیز شناخته میشود، در طول جنگ روسیه و اوکراین فعال بود و قبلاً در هدف قرار دادن کمپین ریاستجمهوری هیلاری کلینتون در سال 2016 نقش داشته است.
به گفته مایکروسافت، این گروه همچنین از LLM برای کمک به کارهای اساسی برنامه نویسی، از جمله دستکاری فایل، انتخاب داده، عبارات منظم و پردازش چندگانه برای خودکارسازی یا بهینه سازی عملیات فنی استفاده می کرد.
همچنین، گروه هک کره شمالی Thallium از LLM برای تحقیق در مورد آسیبپذیریهای گزارش شده عمومی و سازمانهای هدف و کمک به وظایف اسکریپتنویسی اولیه و نوشتن محتوا برای کمپینهای فیشینگ استفاده کرده است. مایکروسافت می گوید گروه معروف به Curium همچنین از LLM و ChatGPT برای تولید ایمیل های فیشینگ و حتی کد برای جلوگیری از شناسایی توسط برنامه های آنتی ویروس استفاده می کند. نیازی به گفتن نیست که هکرهای وابسته به دولت چین نیز از LLM برای تحقیق، اسکریپت، ترجمه و اصلاح ابزارهای موجود خود استفاده می کنند.
با ظهور ابزارهای هوش مصنوعی مانند WormGPT و FraudGPT برای کمک به ایجاد ایمیل های مخرب و ابزارهای کرک، نگرانی هایی در مورد استفاده از هوش مصنوعی در حملات سایبری وجود داشته است. یک مقام ارشد آژانس امنیت ملی همچنین ماه گذشته هشدار داد که هکرها از هوش مصنوعی برای قانعکنندهتر کردن ایمیلهای فیشینگ خود استفاده میکنند.
مایکروسافت و OpenAI هنوز یک حمله مهم با استفاده از LLM شناسایی نکرده اند. اما این شرکت ها تمامی حساب ها و دارایی های مربوط به این گروه های هکری را بسته اند. در حالی که استفاده از هوش مصنوعی در حملات سایبری در حال حاضر محدود به نظر می رسد، مایکروسافت در مورد استفاده های آینده مانند جعل صوتی هشدار می دهد. هما حیات فر، مدیر ارشد تجزیه و تحلیل تشخیصی مایکروسافت می گوید:
کلاهبرداری مبتنی بر هوش مصنوعی یکی دیگر از نگرانی های اصلی است. از جمله مصادیق این موضوع، سنتز صدا است. جایی که یک نمونه صوتی سه ثانیه ای می تواند یک مدل را طوری آموزش دهد که شبیه هر کسی باشد. حتی چیزی به ظاهر بی ضرر مانند سلام صوتی شما می تواند برای به دست آوردن نمونه های کافی استفاده شود.
طبیعتا راه حل مایکروسافت استفاده از هوش مصنوعی برای پاسخ به حملات هوش مصنوعی است. حیات فر می گوید:
هوش مصنوعی می تواند به مهاجمان کمک کند تا حملات خود را پیچیده تر کنند و آنها منابع لازم برای انجام این کار را دارند. ما این را در بیش از 300 بازیگری که مایکروسافت ردیابی میکند، دیدهایم و از هوش مصنوعی برای محافظت، شناسایی و پاسخ استفاده میکنیم.
مایکروسافت در حال ساخت Security Copilot است، یک دستیار هوش مصنوعی جدید که برای متخصصان امنیت سایبری طراحی شده است تا آسیبپذیریها را شناسایی کرده و میزان عظیم سیگنالها و دادههایی را که ابزارهای امنیت سایبری روزانه تولید میکنند، بهتر درک کنند. همچنین این غول نرم افزاری آمریکایی پس از حملات سایبری بزرگ به Azure و حتی جاسوسی هکرهای روسی از مدیران مایکروسافت، در حال بررسی امنیت نرم افزاری خود است.
نوشته شده توسط Chatbot ChatGPT. ابزار جدید مهاجمان سایبری برای اولین بار در Tekknock – اخبار دنیای فناوری. ظاهر شد.
گفتگو در مورد این post