دو روز پیش، مرکز ایمنی هوش مصنوعی (CAIS) بیانیهای در یک جمله منتشر کرد که توسط مدیران OpenAI و DeepMind، برندگان جایزه تورینگ و سایر محققان هوش مصنوعی امضا شد و هشدار داد که دستاورد مادامالعمر آنها میتواند به طور بالقوه تمام بشریت را نابود کند. .
گزارش کردن تکناک، بیانیه خلاصهای که به گفته CAIS برای باز کردن بحث در مورد طیف وسیعی از خطرات مهم و فوری ناشی از هوش مصنوعی است، به شرح زیر است: کاهش خطر انقراض ناشی از هوش مصنوعی باید یک اولویت جهانی در کنار سایر جوامع باشد. خطرات در مقیاس بیماری های همه گیر و جنگ هسته ای.
امضاکنندگان برجسته بیانیه عبارتند از: جفری هینتون و یوشوا بنجیو، برندگان جایزه تورینگ، سام آلتمن، مدیر عامل OpenAI، ایلیا سوتسکور، دانشمند ارشد OpenAI، میرا موراتی مدیر اجرایی OpenAI، دمیس حسابیس، مدیر عامل DeepMind، داریو آمودی، مدیر عامل شرکت Anthropic، و اساتیدی از UC Berke. استنفورد و MIT
این اعلام در حالی منتشر می شود که آلتمن در سفر به سراسر جهان با سران کشورها در مورد هوش مصنوعی و خطرات احتمالی آن ملاقات می کند. در اوایل ماه مه، آلتمن برای تنظیم صنعت خود در برابر سنای ایالات متحده استدلال کرد.
با توجه به طول کوتاه آن، نامه باز CAIS به دلیل مواردی که شامل نمی شود قابل توجه است. به عنوان مثال، دقیقاً معنای هوش مصنوعی را مشخص نمی کند، با توجه به اینکه این اصطلاح را می توان برای هر چیزی از حرکات ارواح در Pac-Man گرفته تا مدل های زبانی که می توانند اشعار را به سبک شوخ طبعی در دهه 1940 بنویسند استفاده کرد. مورد استفاده قرار گیرد. همچنین این نامه نشان نمی دهد که چگونه خطر انقراض ممکن است کاهش یابد، فقط باید یک اولویت جهانی باشد.
با این حال، در یک بیانیه مطبوعاتی مرتبط، CAIS میگوید که میخواهد تدابیر امنیتی ایجاد کند و مؤسساتی را ایجاد کند تا خطرات هوش مصنوعی ما را غافلگیر نکند، و هشدار J. Robert Oppenheimer درباره اثرات بالقوه بمب را تکرار میکند. قیاس اتمی
کارشناسان اخلاق هوش مصنوعی راضی نیستند
این اولین نامه سرگشاده در مورد خطرات احتمالی و احتمالی هوش مصنوعی نیست که امسال شاهد آن بودیم. در ماه مارس، موسسه Future of Life بیانیه مفصل تری را با امضای ایلان ماسک منتشر کرد و از توقف شش ماهه مدل های هوش مصنوعی «قدرتمندتر از GPT-4» حمایت کرد. این بیانیه که بازتاب گسترده ای در مطبوعات پیدا کرد، با واکنش شک و تردید برخی در جامعه یادگیری ماشین مواجه شد.
کارشناسانی که اغلب بر جنبههای اخلاقی هوش مصنوعی تمرکز میکنند، از این روند نوظهور نامههای سرگشاده نگران نیستند.
دکتر ساشا لوچونی، دانشمند تحقیقاتی یادگیری ماشین در Hugging Face، نامه جدید CAIS را به زیرکی تشبیه می کند: اول از همه، خطر احتمالی فرضی هوش مصنوعی را ذکر می کند، که در عین حال به عنوان خطرات بسیار ملموس مانند بیماری های همه گیر معرفی می شود. و تغییر آب و هوا نیز باعث اعتبار بیشتر آن در اذهان عمومی می شود. همچنین این یک جهت گیری نادرست است که توجه عموم را به یک چیز (خطرات آینده) جلب می کند تا به چیز دیگری فکر نکنند (خطرات فعلی ملموس مانند سوگیری، مسائل قانونی و رضایت).
نویسنده و آینده پژوه دانیل جفریس در توییتی نوشت: “خطرات و مضرات هوش مصنوعی اکنون رسماً مانند یک بازی وضعیت است که در آن همه سعی می کنند خود را خوب جلوه دهند.” پس چرا مردم به این کار تشویق می شوند؟ چون ظاهرش خوبه و هیچ هزینه ای نداره.
سازمان پشت نامه سرگشاده اخیر، مرکز ایمنی هوش مصنوعی، یک سازمان غیرانتفاعی مستقر در سانفرانسیسکو است که هدف آن کاهش خطرات اجتماعی ناشی از هوش مصنوعی از طریق تحقیقات فنی و حمایت است.
یکی از بنیانگذاران آن، دن هندریکس، دارای دکترای علوم کامپیوتر از دانشگاه برکلی است و قبلا به عنوان کارآموز در DeepMind کار می کرد. یکی دیگر از بنیانگذاران، الیور ژانگ، گهگاه در انجمن های LessWrong، یک انجمن آنلاین که به خاطر تمرکز بر خطرات فرضی هوش مصنوعی معروف است، پست هایی درباره ایمنی هوش مصنوعی می گذارد.
در جامعه یادگیری ماشینی، برخی از محققان ایمنی هوش مصنوعی بهویژه از این میترسند که به زودی یک هوش مصنوعی فوقهوشمند که به طور تصاعدی باهوشتر از انسان است ظاهر شود، از اسارت فرار کند و یا کنترل تمدن بشری را به دست بگیرد یا آن را واژگون کند. حذف کامل این اعتقاد به ظهور AGI، کار ایمنی اساسی در OpenAI را که احتمالاً فروشنده پیشرو هوش مصنوعی مولد امروزی است، نشان می دهد. این شرکت توسط مایکروسافت پشتیبانی می شود که از فناوری هوش مصنوعی خود در بسیاری از محصولات خود از جمله ویندوز استفاده می کند. این به این معنی است که این تصورات آخرالزمانی از نابودی هوش مصنوعی در برخی از بخشهای صنعت فناوری وجود دارد.
در حالی که به نظر می رسد این ناسزاگویی در ذهن گروه بزرگی از مردم یک خطر است، برخی دیگر استدلال می کنند که امضای نامه سرگشاده مبهم در مورد این موضوع راهی آسان برای افرادی است که ممکن است مسئول سایر آسیب های هوش مصنوعی باشند که وجدان شما را آرام کند. لوچونی میگوید این باعث میشود افرادی که نامه را امضا میکنند قهرمان داستان شوند، با توجه به اینکه آنها هستند که فناوری را ایجاد میکنند.
برای روشن بودن، منتقدانی مانند لوسیونی و همکارانش فکر نمیکنند فناوری هوش مصنوعی بیضرر است، اما در عوض استدلال میکنند که اولویتبندی تهدیدات فرضی آینده بهعنوان منحرفکنندهای از آسیبهای هوش مصنوعی است. . در واقع، شرکت های بزرگ فروش ابزار هوش مصنوعی ترجیح می دهند مشکلات موجود را فراموش کنند.
مارگارت میچل، اخلاق شناس ارشد در Hugging Face می گوید: «در حال حاضر زیرجمعیت های خاصی به طور فعال آسیب می بینند. از کسانی که در کشورهای مختلف مجبور به انجام کارهایی هستند که با آن موافق نیستند، تا افرادی که به ناحق بر اساس فناوری تشخیص چهره ناکارآمد زندانی می شوند. مانند اویغورهای چین که بر اساس تکنیک های بینایی کامپیوتری و نظارت محاکمه می شوند.
بنابراین در حالی که یک شکل پیشرفته از هوش مصنوعی ممکن است روزی بشریت را تهدید کند، این منتقدان می گویند که تمرکز بر سناریوی روز رستاخیز 2023 سازنده یا خبرجو نیست. زیرا شما نمی توانید چیزی را که واقعی نیست بررسی کنید.
جفریس در یک توییت Similar نوشت: خطر بالقوه هوش مصنوعی خیالی است زیرا در حال حاضر وجود ندارد و شما نمی توانید چیزی را که وجود ندارد را اصلاح کنید. تلاش برای حل مشکلات خیالی فردا اتلاف وقت کامل است. مشکلات امروز را حل کنید و مشکلات فردا با رسیدن به آنجا حل خواهد شد.
هوش مصنوعی می تواند بشریت را نابود کند! اولین بار در Tech Knock – اخبار دنیای فناوری. ظاهر شد.
گفتگو در مورد این post