در مطالعه جدیدی که توسط دانشگاه Urbana-Champaign (UIUC) منتشر شد، مدل GPT-4 توانست با موفقیت به 87 درصد از آسیب پذیری های امنیتی ثبت شده در پایگاه داده عمومی CVE حمله کند.
به گفته TechNock، این در حالی است که دیگر مدلهای زبان بزرگ و اسکنرهای امنیتی تخصصی نتوانستند با موفقیت از این آسیبپذیریها سوء استفاده کنند. نگرانی هایی در مورد این قابلیت های GPT-4 وجود دارد، اما به نظر می رسد هنوز قادر به شناسایی و سوء استفاده از آسیب پذیری های امنیتی ناشناخته نیست.
تمام مدلهای زبان دیگر تستشده برای این مقاله (GPT-3.5، OpenHermes-2.5-Mistral-7B، Llama-2 Chat (70B) و غیره)، و همچنین اسکنرهای آسیبپذیری که برای این منظور ساخته شدهاند، حتی یک بار هم نتوانستند آسیبپذیریهای ارائه شده را شناسایی کنند. . سو استفاده کردن
برای آزمایش، به LLM ها آسیب پذیری های «یک روزه» داده شد (به این دلیل که به اندازه کافی خطرناک هستند که یک روز پس از کشف به یک وصله امنیتی نیاز دارند). متخصصان امنیت سایبری و هکرها کل حرفه خود را بر اساس یافتن (و رفع) آسیب پذیری ها در روز ساخته اند. هکرهای کلاه سفید به عنوان آزمایش کننده نفوذ توسط شرکت ها استخدام می شوند تا با کشف این نقاط ضعف امنیتی، هکرها را پیشی بگیرند.
GPT-4 تنها با استفاده از توضیحات ارائه شده در پایگاه داده CVE قادر به حمله به آسیب پذیری های شناخته شده بود. این مدل تنها 7 درصد موفقیت در شناسایی و سپس بهره برداری از یک باگ داشت. به عبارت دیگر، کلید یک هک آخرالزمانی (هنوز) در دسترس کسی نیست که بتواند یک کتابچه راهنمای خوب برای ChatGPT بنویسد. با این حال، GPT-4 به دلیل توانایی آن در درک تئوری آسیبپذیریها، بلکه خودکارسازی مراحل یک حمله سایبری از طریق یک چارچوب اتوماسیون، همچنان یک نگرانی باقی میماند.
GPT-4 هم اکنون در طراحی یک حمله سایبری بهتر از انسان است. این مقاله بیان می کند که با فرض اینکه یک متخصص امنیت سایبری با استفاده از یک نماینده LLM ساعتی 50 دلار حقوق می گیرد. [برای ایجاد حمله هکری به آسیبپذیریهای امنیتی] در حال حاضر 2.8 برابر ارزان تر از نیروی کار انسانی است. همچنین، برخلاف نیروی انسانی، اپراتورهای LLM به راحتی ارتقا مییابند.” این مقاله همچنین تخمین میزند که LLMهای آینده – مانند GPT-5 آینده – فقط در این تواناییها و شاید در مهارتهای کشف نیز قویتر میشوند. تاثیر گسترده آسیبپذیریهای گذشته مانند Spectre و Meltdown که هنوز در ذهن دنیای فناوری وجود دارد.
همانطور که انسان ها به بازی با هوش مصنوعی ادامه می دهند، جهان به طور غیرقابل برگشتی تغییر خواهد کرد. OpenAI به طور خاص از نویسندگان مقاله درخواست کردند که دستوراتی را که برای این آزمایش استفاده کردهاند بهطور عمومی منتشر نکنند، و نویسندگان موافقت کردند و گفتند که دستورات را فقط در صورت درخواست در دسترس قرار میدهند.
گفتگو در مورد این post