OpenAI اعلام کرد که در حال فعال کردن تیم جدیدی از محققان و مهندسان برتر یادگیری ماشین است.
گزارش کردن تکناکهدف این تیم توسعه روشهای آموزشی مقیاسپذیر است که اطمینان حاصل کند هوش مصنوعی خود را به روشهایی خطرناک نشان نمیدهد.
OpenAI در اعلامیه او خود گفت که هوش مصنوعی فوق هوشمند پرچمدار فناوری های موثری خواهد بود که به حل بسیاری از مشکلات جهان کمک می کند. متأسفانه OpenAI فکر می کند که هوش مصنوعی فوق هوشمند می تواند بسیار خطرناک باشد و ممکن است منجر به انقراض بشریت شود.
این شرکت گفته است که در حال حاضر راهی برای هدایت یا کنترل هوش مصنوعی فوقهوشمند ندارد. برای مدلهای فعلی هوش مصنوعی، OpenAI از یادگیری تقویتی و بازخورد انسانی استفاده میکند که هر دو به نظارت انسان بر هوش مصنوعی بستگی دارند.
در نهایت، OpenAI فکر نمیکند که انسانها بتوانند بهطور قابل اعتمادی بر سیستمهای هوش مصنوعی که از ما باهوشتر هستند نظارت کنند، و همینطور روشهای همترازی فعلی را منسوخ میکند. برای پاسخ به این چالش، OpenAI در حال تشکیل یک تیم جدید Superalignment با اهداف زیر است:
- ایجاد یک روش آموزشی مقیاس پذیر.
- اعتبار سنجی مدل به دست آمده.
- تست استرس کلی مراحل تثبیت.
برای OpenAI به اندازه کافی مهم است که تیم جدید به 20 درصد از توان محاسباتی ارائه شده تاکنون دسترسی داشته باشد. آنها چهار سال آینده فرصت دارند تا مشکل تراز هوش مصنوعی فوق العاده را حل کنند.
تیم جدید نیاز اصلی شرکت برای حل مشکل تراز هوش مصنوعی فوقهوشمند است، اما این شرکت همچنان انتظار دارد تیمهای دیگر در حل این مشکل مشارکت کنند.
مهم است که به یاد داشته باشید که هوش مصنوعی لزوما بدخواه نیست، اما می تواند مخرب باشد، و به همین دلیل است که OpenAI نگران است. این شرکت معتقد است که هوش مصنوعی فوقهوشمند در این دهه در دسترس است و میگوید ممکن است از هدف خود برای هدایت آن کوتاهی کند، اما همچنان خوشبین است.
همزمان با تشکیل تیم Superalignment، OpenAI قصد دارد افرادی را جذب کند که در زمینه یادگیری ماشین موفق بوده اند. این شرکت به دنبال افرادی برای ایفای نقش هایی مانند مهندس پژوهش، دانشمند پژوهشی و مدیر تحقیقات است.
The post طرح جدید OpenAI برای کاهش خطرات هوش مصنوعی اولین بار در TekNak – اخبار دنیای فناوری پدیدار شد. ظاهر شد.
گفتگو در مورد این post