هفت شرکت برتر هوش مصنوعی جهان در جدیدترین نشست خود قول داده اند که ایمنی و امنیت محصولات هوش مصنوعی خود را بهبود بخشند.
گزارش کردن تکناکپس از ماه ها رایزنی و درخواست نظرات، مذاکرات بین کاخ سفید و شرکت های فعال در زمینه هوش مصنوعی آمازون، آنتروپیک، متا، مایکروسافت، گوگل، Inflection و OpenAI به نتیجه ای رسیده اند تا نگرانی های دولت در مورد خطرات و مشکلات سیستم های هوش مصنوعی را برطرف کنند.
یکی از اقدامات مورد توافق افزایش بودجه برای تحقیقات مبتنی بر تبعیض به عنوان راهی برای مبارزه با سوگیری های الگوریتمی در شبکه های هوش مصنوعی است.
این شرکت ها همچنین موافقت کردند که در امنیت سایبری سرمایه گذاری بیشتری کنند. هنگام توسعه یک پروژه در ابزاری مانند ChatGPT، احتمال زیادی وجود دارد که موارد تولید شده به صورت آنلاین در معرض دید قرار گیرند و OpenAI مقصر نیست. در نتیجه، هدف افزایش سرمایه گذاری در امنیت سایبری برای مبارزه با نشت چنین اطلاعاتی است.
تخصیص واترمارک به محتوای تولید شده توسط هوش مصنوعی نیز وعده داده شده است. این موضوع اخیرا به دلایل مختلف در مطبوعات داغ شده است.
تاکنون، شرکتهای سازنده هوش مصنوعی شکایتهای متعددی در مورد نقض حق چاپ داشتهاند. واترمارک کردن محتوای تولید شده توسط هوش مصنوعی راهی برای کاهش ترس از داده های تصادفی و تولید شده توسط انسان (از زندگی شخصی افراد) در دریای محتوای هوش مصنوعی به سرعت در حال بهبود و رشد است.
همچنین از منظر تاثیر سیستمی، تاثیر هوش مصنوعی بر کسب و کارها باید مورد بررسی قرار گیرد. به اندازه کافی مشاغل مختلف در دنیا وجود دارد و در نهایت کارگران به سمت صنایع کمتر آسیب دیده جذب می شوند، اما این انتقال هزینه های انسانی، اقتصادی و زمانی دارد. در صورت اجرای سریع تغییرات در کل اقتصاد و سیستم کار، ممکن است آسیب ببیند.
البته، واترمارک کردن داده های تولید شده توسط هوش مصنوعی (یا داده های مصنوعی) نیز به نفع شرکت های هوش مصنوعی خواهد بود. آنها نمی خواهند سیستم هوش مصنوعی خود را به دلیل داده های مصنوعی، مسموم یا ناتوانی آن در تشخیص داده های مصنوعی از داده های شخصی ایمن تر و بسیار گران تر، مختل کنند.
و اگر مشکلات آموزش هوش مصنوعی برای مدت طولانی مشکل باقی بماند، توسعه دهندگان هوش مصنوعی ممکن است دیگر به مجموعه داده های مناسب برای ادامه آموزش شبکه های خود دسترسی نداشته باشند.
همه این تعهدات داوطلبانه بوده و احتمالاً به عنوان یک ژست حسن نیت توسط شرکت هایی که بیشترین سرمایه گذاری را در هوش مصنوعی انجام داده اند، انجام شده است. اما این موضوع را نیز باید در نظر گرفت: «آیا می توان هوش مصنوعی را با سرعت فعلی کنترل کرد؟». اگر توسعه دهندگان هوش مصنوعی مایل به افزایش داوطلبانه ایمنی و امنیت سیستم های خود باشند، شاید بتوانند آن را نیز کنترل کنند.
بخشی از مشکل این رویکرد توافق تنها هفت شرکت در این زمینه است. صدها شرکت دیگر در حال توسعه محصولات هوش مصنوعی کجا هستند؟ آیا می توانید به کسانی که در مقایسه با غول هایی مانند OpenAI و مایکروسافت کوچکتر و ضعیف تر هستند اعتماد کنید؟ زیرا این شرکت ها از ارائه محصولات هوش مصنوعی سود بیشتری می برند و معیشت آنها به خارج از فضای آماده بستگی دارد. البته این اولین بار نیست که شرکت ها برای کسب درآمد از یک محصول عجله می کنند.
این تعهدات مستلزم تأیید و تأیید فعال داخلی و خارجی آنها است. با این حال، همیشه امکان نظارت و عدم اطلاع رسانی، اسناد مفقود و آسیب پذیری وجود دارد.
استفاده از هوش مصنوعی یک شمشیر دولبه است که در لبه دیگر آن خطر انقراض قابل توجهی وجود دارد و ما قطعاً نمی خواهیم بخشی از آن باشیم.
مقاله افزایش ایمنی هوش مصنوعی با اختصاص واترمارک اولین بار در Tekknock – اخبار دنیای فناوری پدیدار شد. ظاهر شد.
گفتگو در مورد این post