در یک پست وبلاگ اخیر، بیل گیتس، یکی از بنیانگذاران مایکروسافت، در مورد درخواست ایلان ماسک، مدیرعامل تسلا برای توقف موقت توسعه هوش مصنوعی (AI) صحبت کرد.
گزارش کردن تکناکدروازه ها اعتراف کرد گفت که استفاده از هوش مصنوعی خطرات واقعی دارد، اما همچنین گفت که می توان آنها را کنترل کرد.
ماسک از منتقدان سرسخت استقرار هوش مصنوعی و امضاکننده برجسته نامه ای در اوایل ماه مارس بوده است که در آن خواستار توقف شش ماهه تحقیقات هوش مصنوعی شده بود.
گیتس که شرکت مایکروسافت او یکی از پیشگامان ارائه مدل های هوش مصنوعی مانند GPT-4 به کاربران است، درخواست ماسک را رد کرده بود. با این حال، این موضوع باعث نشد که این مرد 67 ساله در یک پست طولانی وبلاگ درباره خطرات هوش مصنوعی صحبت کند.
خطرات هوش مصنوعی واقعی است
بیل گیتس پیامدهای ترسناک مختلف استفاده روزانه از هوش مصنوعی را بررسی کرد. به گفته گیتس، اسناد جعلی که ادعا میکنند یک نامزد خاص در انتخابات پیروز شده است یا فردی که صدای فرزندشان را جعل میکند و ادعا میکند که ربوده شده است، همگی در این محدوده هستند. امکاناتی وجود دارد که می توان با فناوری های امروزی آن ها را پیاده سازی کرد.
وی همچنین خاطرنشان کرد که برخی از کارگران به بازآموزی نیاز خواهند داشت زیرا مشاغل تحت سلطه هوش مصنوعی قرار می گیرند یا در معرض رها شدن هستند. برای مقایسه، گیتس می گوید که انتقال به پردازشگرهای داده و رایج شدن رایانه های شخصی در دفاتر کار، این تغییر را به یکباره نپذیرفت.
در بررسی آشکار پیشنهاد ماسک، گیتس گفت که این تغییرات دلیلی برای توقف پذیرش این فناوری نیست. در عوض، آنها باید بیشتر مورد بررسی قرار می گرفتند زیرا هکرها و کشورهای متخاصم متوقف نشدند و به استفاده از هوش مصنوعی برای اهداف خود ادامه دادند.
جالب اینجاست که ماسک اخیراً از برنامه های خود برای راه اندازی یک شرکت هوش مصنوعی خبر داده است.
آماده شدن برای انتقال
گیتس وقتی قدرت هوش مصنوعی را با سلاح های هسته ای مقایسه کرد کوتاه نیامد. در حالی که یک جنگ هسته ای همه جانبه دغدغه نسل او بود، اقداماتی مانند NPT اگرچه ناقص بود، اما موفق شد از آن جلوگیری کند. او از خوانندگان خواست تا در مواجهه با فناوری های جدید به تاریخ نگاه کنند تا ما را راهنمایی کند.
مدیر عامل سابق مایکروسافت همچنین پیشنهاد کرد که دولت ها باید به فکر ایجاد یک نهاد جهانی برای بررسی مسائل هوش مصنوعی باشند، درست مانند آژانس بین المللی انرژی اتمی که برای همکاری هسته ای ایجاد شده است.
دولت ها و سیاستمداران باید در زمینه هوش مصنوعی تخصص داشته باشند تا بتوانند قوانین و مقرراتی را پیرامون خود وضع کنند تا روند گذار برای کل جامعه هموار شود.
گیتس افزود: برای مقابله با اثرات هوش مصنوعی نیز می توان از هوش مصنوعی استفاده کرد. به عنوان مثال، هوش مصنوعی می تواند اسناد جعلی را که اینتل و دارپا روی آن کار می کنند، شناسایی کند.
گیتس همچنین معتقد است که معلمان به جای نگرانی در مورد نتایج یادگیری در کودکان به دلیل استفاده از مدل های هوش مصنوعی، باید از آن به عنوان یک کمک آموزشی استفاده کنند که دانش آموزان به آن دسترسی داشته باشند و مواد آموزشی و تکالیف را پیرامون آن طراحی کنند.
به طور کلی، گیتس به مردم توصیه کرد که در طول زندگی خود در این نوآوری دگرگون کننده شرکت کنند و دانستن مزایا و خطرات این فناوری، به طور کلی، بحث سالمی را در مورد آن ایجاد می کند.
خالق ChatGPT می گوید تهدیدات هوش مصنوعی واقعی هستند.
گفتگو در مورد این post