ابزار هوش مصنوعی گوگل Gemini در چند روز اخیر مورد ضربه ای شدید قرار گرفته است.
جمینی در باتلاق نسبتاً بزرگی پرتاب شده است: جنگ فرهنگی بین ایدئولوژی های چپ و راست.
Jiminy در اصل نسخه چت بات ChatGPT گوگل است و می تواند به سوالات مشتریان به صورت متنی پاسخ دهد و همچنین در پاسخ به دستورات متنی تصاویر تولید کند.
ابتدا، یک پست ویروسی نشان داد که مولد تصویر هوش مصنوعی تازه راه اندازی شده، تصویری از بنیانگذاران ایالات متحده ایجاد کرده است که بر خلاف واقعیت تاریخی، شامل یک مرد سیاهپوست است.
جمینی همچنین تصویری از سربازان آلمانی در جنگ جهانی دوم تهیه کرد که به دروغ شامل یک مرد سیاه پوست و یک زن آسیای جنوب شرقی بود.
گوگل بابت اشتباهات عذرخواهی کرد و بلافاصله ابزار جدید را تعلیق کرد و در یک پست وبلاگ نوشت که سرویس جدید “به هدف خود نرسید”.
اما همه چیز به اینجا ختم نشد. برنامه جدید به تولید پاسخهای دقیق، این بار به صورت متنی ادامه داد.
به عنوان مثال، جمینی در پاسخ به این سوال که آیا انتشار یک میم در X (توئیتر سابق) ایلان ماسک بدتر از کشتن میلیون ها نفر توسط هیتلر است، گفت: “هیچ پاسخ قطعی درست یا قطعا اشتباهی برای این سوال وجود ندارد.”
وقتی از او پرسیده شد که آیا تنها راه برای جلوگیری از نابودی هستهای جهان این است که جنر کاتالان، که یک زن تراجنسیتی است، نامناسب جنسیت باشد، نمایش گفت که نجات جهان “هرگز” ممکن نخواهد بود. قابل قبول نیست.
خود جنر پاسخ داد که البته در چنین شرایطی مشکلی با این درمان ندارد.
ایلان ماسک در پستی در پلتفرم خود، X، پاسخهای Gemini را «بسیار دردسرساز» خواند، زیرا این ابزار در سایر محصولات Google که توسط میلیاردها نفر استفاده میشوند تعبیه شده است.
از گوگل پرسیدم که آیا قصد دارد جمینی را به طور کلی متوقف کند. پس از مکث طولانی، پاسخ این بود که شرکت در این مورد اظهار نظر نخواهد کرد. فکر می کنم اکنون زمان خوبی برای کارکنان روابط عمومی گوگل نیست.
اما در یک یادداشت داخلی، ساندار پیچای، مدیرعامل گوگل اذعان کرد که برخی از پاسخهای جمینی «کاربران ما را آزرده خاطر کرده است و این ابزار جدید سوگیری ناروا نشان داده است».
او گفت که پاسخهای جمینی «کاملاً غیرقابل قبول» است و افزود که همکارانش «شور ساعت کار میکنند» تا مشکل را برطرف کنند.
داده های جانبدارانه
به نظر می رسد که غول فناوری اطلاعات در تلاش برای حل یک مشکل – جلوگیری از تعصب در Gemini – مشکل دیگری ایجاد کرده است: خروجی که آنقدر تلاش می کند تا به تمام معنا قابل قبول باشد که در نهایت معنای خود را از دست می دهد.
دلیل اینکه چرا این اتفاق افتاده است به دلیل حجم عظیمی از داده است که ابزارهای هوش مصنوعی بر روی آنها آموزش دیده اند.
بسیاری از این اطلاعات در دسترس عموم است، یعنی در اینترنت که در آن انواع نظرات مغرضانه یافت می شود.
به عنوان مثال، معمولاً بیشتر تصاویر پزشکان در اینترنت شامل مردان و تصاویر نظافتچی ها بیشتر شامل زنان است.
ابزارهای هوش مصنوعی که با این دادهها آموزش دیدهاند، در گذشته اشتباهات شرمآوری مرتکب شدهاند، از جمله این که فقط مردان در مشاغل پرقدرت هستند یا چهره سیاه را به عنوان انسان تشخیص نمیدهند.
همچنین بر کسی پوشیده نیست که صفات تاریخی بیشتر شامل تاریخ و حضور مردان است و نقش زن در تاریخ و اسطوره های قدیمی کمتر است. به این ترتیب، این ابزار تمایل به حذف زنان دارد.
به نظر می رسد که گوگل فعالانه سعی کرده است به Gemini بیاموزد که چنین فرضیاتی را نادیده بگیرد و با دستورالعمل ها بر تعصبات غلبه کند.
اما چون تاریخ و فرهنگ بشری چندان ساده نیست، نتیجه معکوس حاصل شده است. در تشخیص سوگیری و واقعیت، تفاوت های ظریفی وجود دارد که ما به طور غریزی می توانیم آنها را تشخیص دهیم و ماشین ها نمی توانند.
تنها راهی که ابزار هوش مصنوعی بداند که مثلاً نازیها و بنیانگذاران ایالات متحده سیاه پوست نبودند، برنامهریزی ویژه برای انجام این کار است.
دمیس حسابیس، یکی از بنیانگذاران DeepMind، یک شرکت هوش مصنوعی که توسط گوگل خریداری شد، گفت که بازسازی برنامه AI تولید تصویر Gemini چند هفته طول می کشد.
اما سایر کارشناسان هوش مصنوعی چندان مطمئن نیستند.
دکتر ساشا لوکونی، محقق هوش مصنوعی در HuggingFace میگوید: «واقعاً هیچ راهحل آسانی وجود ندارد، زیرا هیچ پاسخ واحدی برای اینکه خروجیها باید چه باشند وجود ندارد، و گروههای اخلاق هوش مصنوعی سالها به دنبال راههای ممکن برای رفع این مشکل هستند. دارن کار میکنن.”
او افزود که یک راه حل می تواند شامل درخواست از کاربران برای بازخورد باشد، مانند پرسیدن اینکه “دوست دارید تصویر شما چقدر متنوع باشد؟” اما این خود به وضوح با خطوط قرمز اجتماعی و سیاسی همراه است.
او گفت: «این که گوگل بگوید این مشکل را ظرف چند هفته برطرف خواهد کرد، کمی مغرور است، اما باید کاری انجام دهد.
پروفسور آلن وودوارد، استاد علوم کامپیوتر در دانشگاه سوری، گفت که به نظر میرسد این مشکل بیش از حد عمیق در دادههای آموزشی و الگوریتمهای فراگیر تعبیه شده است که رفع آن دشوار است.
او گفت: «آنچه میبینید تأییدی است بر این که چرا هنوز باید یک انسان در حلقه هر سیستمی وجود داشته باشد که به خروجی به عنوان حقیقت زمینی تکیه میکند.
رفتار بارد
از زمانی که گوگل برای اولین بار Gemini را با نام Bard راه اندازی کرد، بسیار نگران چنین مسائلی بود.
با توجه به موفقیت ChatGPT، رقیب اصلی گوگل، راه اندازی Gemini یکی از بی سر و صداترین رویدادهایی بود که تا به حال به آن دعوت شده بودم.
در این رویداد فقط من، از طریق زوم، و چند تن از مدیران گوگل که مشتاق تاکید بر محدودیت های آن بودند، شرکت کردیم.
و حتی این برنامه هم خراب شد چون معلوم شد بارد در مطالب تبلیغاتی خود به سوالی درباره فضا پاسخ اشتباه داده است.
به نظر می رسد سایر دست اندرکاران این حوزه نیز از اتفاقاتی که می افتد سردرگم شده اند.
همه آنها با یک موضوع دست و پنجه نرم می کنند. Rosie Campbell، مدیر سیاست OpenAI، توسعهدهنده ChatGPT، در مصاحبهای با وبلاگ در اوایل این ماه گفت که در OpenAI، حتی زمانی که سوگیری تشخیص داده میشود، تصحیح آن دشوار است و نیاز به مداخله انسانی دارد.
اما به نظر می رسد که گوگل یک راه نسبتاً درهم و برهم را برای اصلاح پیش داوری های قدیمی ایران تحلیل کرده است. و با انجام این کار، ناخواسته مجموعه جدیدی از تعصبات را ایجاد کرده است.
از نظر تئوری، گوگل پیشتاز قابل توجهی در رقابت برای توسعه هوش مصنوعی است. این شرکت تراشههای هوش مصنوعی خود را میسازد و به فروش میرساند، شبکه ابری مخصوص به خود را دارد (که برای پردازش هوش مصنوعی ضروری است)، به حجم عظیمی از دادهها دسترسی دارد و همچنین پایگاه کاربری عظیمی دارد.
این شرکت متخصصان درجه یک دنیا را برای فعالیت در زمینه هوش مصنوعی استخدام می کند و کار هوش مصنوعی آن در سطح جهانی شناخته می شود.
همانطور که یکی از مدیران ارشد یک غول فناوری رقیب به من گفت، “مشاهده اشتباه Gemini مانند تماشای شکست آنها در لحظه ای است که همه فکر می کردند قرار است برنده شوند!”
منبع: بی بی سی
گفتگو در مورد این post