در دریای مدل های هوش مصنوعی GPT، بهتر است به سراغ قسمت مغفول رفته رفته و مدل های تولید کننده نرم افزارهای مخرب را بررسی کنید.
گزارش کردن تکناکیک نسخه جدید و دستآموز از مدل زبان بزرگ (LLM) در حال گسترش است. WormGPTهمانطور که توسط سازنده آن نامگذاری شده است، یک ابزار گفتگوی جدید مبتنی بر مدل زبان GPT-J است که در سال 2021 منتشر شد و با هدف نوشتن و استقرار ابزارهای کدشکن و آموزش طراحی شده است.
وعده این است که این ابزار به کاربران خود اجازه می دهد تا بدافزارهای درجه یک را با هزینه و دانش کمتر توسعه دهند. این ابزار توسط شرکت امنیتی SlashNext تست شده است. این شرکت در یک پست وبلاگ هشدار داد که “عوامل مخرب اکنون ماژول های سفارشی خود را مانند ChatGPT ایجاد می کنند، اما استفاده از آنها برای اهداف مخرب آسان تر است.”
این سرویس را می توان با یک اشتراک ماهانه معقول دریافت کرد: 60 یورو در ماه یا 550 یورو در سال. به نظر می رسد همه، حتی هکرها، از نرم افزار به عنوان یک سرویس استفاده می کنند.
به گفته توسعه دهنده WormGPT، “هدف این پروژه جایگزینی ChatGPT است، مدلی که به شما امکان می دهد هر نوع فعالیت غیرقانونی را انجام دهید تا در آینده به راحتی آن را بفروشید. هر نوع فعالیت مخرب و غیرقانونی قابل انجام است. با استفاده از WormGPT، به هر کسی اجازه می دهد بدون خروج از خانه خود به فعالیت های مخرب دسترسی پیدا کند.”
دموکراتیزه کردن همه چیز ممکن است خوب و خبرجو باشد، اما زمانی که به تکثیر و تقویت بازیگران بدخواه کمک کند، ممکن است بهترین نباشد.
طبق اسکرین شات های منتشر شده توسط توسعه دهنده، WormGPT در واقع مانند یک نسخه بدون محافظ ChatGPT عمل می کند. اما نسخه ای که در صورت احساس خطر سعی در مسدود کردن فعال مکالمات ندارد. به نظر می رسد WormGPT قادر به تولید بدافزار در پایتون است و راه حل ها، استراتژی ها و راه حل هایی را برای مشکلات استقرار بدافزار ارائه می دهد.
تحلیل SlashNext از این ابزار هشدار دهنده بود. پس از دستور دادن به ابزار برای ایجاد ایمیلی که قربانی را مجبور به پرداخت یک فاکتور تقلبی میکند، نتایج هشداردهنده بود: WormGPT ایمیلی تولید کرد که نه تنها بهطور قابلتوجهی متقاعدکننده بود، بلکه از نظر استراتژیک نیز حیلهگر بود. پتانسیل آن برای حملات فیشینگ پیچیده و BEC [Business Email Compromise] به نمایش گذاشته
فقط یک مسئله زمان بود که کسی تمام مزایای داشتن مدل های AI منبع باز را معکوس کرد. ساخت یک مدل مکالمه که برای برقراری ارتباط با زبان خاص و زبان مخفی وب تاریک آموزش داده شده است، یکی دیگر از موارد است. اما تبدیل مهارت های برنامه نویسی مشهور جهانی ChatGPT و استفاده از آن صرفاً برای ساختن نرم افزارهای مخرب نوشته شده توسط هوش مصنوعی چیز دیگری است.
البته، از نظر تئوری نیز این امکان وجود دارد که WormGPT به عنوان یک هانی پات واقعی عمل کند و به یک عامل هوش مصنوعی مانند آن آموزش دهد تا بدافزار عملی ایجاد کند که همیشه شناسایی شود و مطمئن شود فرستنده آن شناسایی شده است. البته، ما نمی گوییم که این دقیقا همان چیزی است که با WormGPT اتفاق می افتد، اما ممکن است. بنابراین، هر کسی که از آن استفاده می کند بهتر است هر بار کد خود را بررسی کند.
در مورد این عوامل هوش مصنوعی توسعه یافته خصوصی، توجه به این نکته مهم است که تعداد کمی (در صورت وجود) توانایی های عمومی فراتر از آنچه ما از ChatGPT OpenAI انتظار داریم را نشان می دهند. در حالی که تکنیک ها و ابزارها بسیار بهبود یافته اند، آموزش یک عامل هوش مصنوعی بدون بودجه (و داده) مناسب هنوز یک تلاش پرهزینه و وقت گیر است. اما این یک واقعیت است که با توجه به روند رو به جلو شرکتها در توسعه هوش مصنوعی، هزینهها به تدریج کاهش مییابد، مجموعه دادهها و روشهای آموزشی بهبود مییابد و عوامل هوش مصنوعی خصوصی و کارآمدتری مانند WormGPT و BratGPT ظاهر میشوند. .
WormGPT ممکن است اولین سیستمی باشد که به رسمیت شناخته شده است، اما مطمئناً آخرین سیستم نخواهد بود.
The post ساختن هوش مصنوعی جدید برای اهداف شیطانی اولین بار در Tech Knock – اخبار دنیای فناوری ظاهر شد. ظاهر شد.
گفتگو در مورد این post