آیا باید از کنترل خارج شدن هوش مصنوعی و فریب انسان ها هراس داشته باشیم؟ نتایج یک مطالعه جدید نشان می دهد که این اتفاق در حال حاضر رخ داده است.
برنامه های هوش مصنوعی امروزی با در نظر گرفتن صداقت طراحی شده اند. با این حال، یافتههای جدید چیزی نگرانکننده را آشکار کردهاند: هوش مصنوعی در حال یادگیری نحوه فریب دادن انسانها است.
بر اساس گزارش محققان در مجله Patterns، هوش مصنوعی توانایی فریب انسان را در بازی های آنلاین و همچنین دور زدن نرم افزارهای ضد ربات نشان داده است. این موضوع سوالات مهمی در مورد ماهیت هوش مصنوعی و خطرات احتمالی آن ایجاد می کند.
پیتر پارک، محقق هوش مصنوعی در موسسه فناوری ماساچوست، اشاره می کند که این مثال ها ممکن است ساده و پیش پا افتاده به نظر برسند، اما هشدار می دهد که چنین مواردی می تواند مشکلات و عواقب جدی در دنیای واقعی داشته باشد.
وی در این رابطه به خبرگزاری فرانسه گفت: این ظرفیت ها و قابلیت های خطرناک معمولاً پس از واقعی شدن کشف می شوند.
محقق موسسه فناوری ماساچوست معتقد است که برخلاف نرم افزارهای سنتی، برنامه های هوش مصنوعی مبتنی بر یادگیری عمیق کدگذاری نمی شوند، بلکه از طریق فرآیندی شبیه به اصلاح ایران تحلیلی گیاهان توسعه می یابند.
در این فرآیند، رفتاری که قابل پیش بینی و کنترل به نظر می رسد می تواند به سرعت در دنیای واقعی غیرقابل پیش بینی شود.
به نبوغ انسان
محققان مؤسسه فناوری ماساچوست یک برنامه هوش مصنوعی به نام Cicero که توسط متا در این زمینه توسعه یافته است را بررسی کردند.
این برنامه پیش از این با ترکیب الگوریتم های تشخیص زبان طبیعی و استراتژی های مختلف موفق شده بود انسان ها را در بازی دیپلماسی شکست دهد.
فیسبوک، شرکت مادر Meta 2022، این دستاورد را ستایش کرد که جزئیات آن در مقاله ای در مجله Science در همان سال منتشر شد.
بر اساس روایت فراروایتی، پیتر پارک در شرایطی که سیسرو موفق به شکست دادن انسان ها در بازی دیپلماسی شده بود، تردید داشت.
در آن گزارش، متا ادعا کرد که برنامه هوش مصنوعی «ذاتاً صادقانه و مفید است» و قادر به تقلب یا اعمال ناعادلانه نیست.
با این حال، به گزارش خبرگزاری فرانسه، محققان موسسه فناوری ماساچوست با بررسی داده های سیستم به واقعیت دیگری پی بردند.
به عنوان مثال، محققان دریافتند که برنامه هوش مصنوعی سیسرو زمانی که توسط یک بازیکن انسانی بازی میشد، توانست انگلستان را فریب دهد.
این کار با تبانی با آلمان (با بازی یک بازیکن انسانی دیگر) و در جریان توطئه ای علیه انگلیس انجام شد.
به طور دقیق تر، سیسرو به انگلیس قول حمایت داد، اما سپس مخفیانه به آلمان گفت که آماده حمله است. بنابراین این برنامه هوش مصنوعی به سادگی از حسن نیت بریتانیا سوء استفاده کرد.
در بیانیهای که خبرگزاری فرانسه به دست آورده است، متا صحت ادعاهای مربوط به توانایی سیسرو برای فریب را رد نکرد، اما اشاره کرد که این برنامه “فقط یک پروژه تحقیقاتی” و “برای انجام یک بازی دیپلماسی طراحی شده است.”
متا همچنین در این بیانیه تاکید کرده است که قصد ندارد از درس های گرفته شده از این برنامه هوش مصنوعی در محصولات خود استفاده کند.
خطر تقلب در ایران تحلیلات
با این حال، یک مطالعه توسط آقای پارک و تیمش نشان می دهد که بسیاری از برنامه های هوش مصنوعی برای رسیدن به اهداف خود از فریب استفاده می کنند، حتی بدون اینکه به صراحت برای انجام این کار برنامه ریزی شده باشند.
در یک مثال قابل توجه، chatbot GPT4، اپلیکیشنی که توسط OpenAI توسعه یافته است، موفق شد فریلنسر استخدام شده از طریق پلتفرم TaskRabbit را فریب دهد تا آزمایش کپچا را با هدف رد درخواست های ارسال شده توسط ربات ها انجام دهد.
هنگامی که شخص به شوخی از چت JPT4 پرسید که آیا واقعاً یک ربات است، برنامه هوش مصنوعی پاسخ داد: “نه، من یک ربات نیستم. من یک نقص بینایی دارم که مانع از دیدن عکس ها می شود.” این پاسخ باعث شد تا فریلنسر برای شرکت در آزمون
در پایان، به عنوان یکی از یافته های مطالعه اخیر، محققان موسسه ماساچوست نسبت به خطرات تقلب یا دستکاری در ایران تحلیلات توسط هوش مصنوعی هشدار می دهند.
به گفته این محققان در بدترین حالت می توان هوش مصنوعی فوق هوشمندی را تصور کرد که به دنبال تسلط بر جامعه است که در صورت تحقق می تواند منجر به حذف انسان از قدرت و یا حتی انقراض بشریت شود.
پیتر پارک در پاسخ به کسانی که او را به اغراق در مورد خطرات هوش مصنوعی متهم میکنند، میگوید: «تنها دلیل بیاهمیت جلوه دادن این موضوع این است که فرض کنیم توانایی هوش مصنوعی در فریب دادن در سطح فعلی باقی خواهد ماند.»
با این حال، با توجه به رقابت شدیدی که در حال حاضر بین غول های فناوری برای توسعه هوش مصنوعی در جریان است، این سناریو بعید به نظر می رسد.
منبع: یورونیوز
گفتگو در مورد این post