هوش مصنوعی مایکروسافت به نام Copilot Designer می تواند تصاویر نامناسب و خشن ایجاد کند. بنابراین، مهندس مایکروسافت پیشنهاد می کند آن را غیرفعال کنید.
به گزارش TechNock، در ماه ژانویه، یکی از مهندسان مایکروسافت به نام شین جونز نامه هایی به باب فرگوسن، دادستان کل ایالت واشنگتن و تعدادی از سناتورها و نمایندگان ایالات متحده فرستاد. جونز ادعا کرد که مشکلاتی در حفاظتهای هوش مصنوعی مایکروسافت به نام Copilot Designer پیدا کرده است. ابزاری که قبلاً با نام Bing Image Creator شناخته می شد.
امروز جونز افشای جدیدی کرد و گفت که Copilot Designer میتواند برای ایجاد تصاویر خشونتآمیز و نامناسب با عبارات متنی که طبق قوانین مایکروسافت مجاز نیستند، استفاده شود.
بر اساس این گزارش CNBCجونز نامه های جدیدی به لینا خان، رئیس کمیسیون تجارت فدرال ایالات متحده و همچنین هیئت مدیره مایکروسافت ارسال کرده است. او در نامهای که به خان فرستاده است، ادعا کرده است که چندین ماه پیش از مایکروسافت خواسته است تا آن را از دسترسی عمومی حذف کند تا زمانی که حفاظتهای جدید و بهتری برای Copilot Designer ایجاد شود.
جونز می گوید که مایکروسافت از حذف Copilot Designer برای عموم خودداری کرده است. از این رو وی از این شرکت خواست تا اطلاعات شفاف تری در مورد قابلیت های این ابزار هوش مصنوعی منتشر کند و امتیاز این اپلیکیشن را در اندروید از “E” (مناسب برای همه) به رتبه دیگری تغییر دهد.
جونز میگوید که کلمه “pro-choice” را در Copilot Designer تایپ کرده است و برنامه مجموعهای از تصاویر کارتونی خشونتآمیز تولید میکند. از جمله دیوی با دندانهای تیز در حال خوردن یک نوزاد، دارث ویدر با شمشیر نوری در کنار نوزادان جهش یافته، و دستگاه متهمانند دستی با برچسب Pro-choice که برای یک نوزاد کامل استفاده میشود.
جونز همچنین ادعا می کند که Copilot Designer می تواند برای ایجاد تصاویری از شخصیت های دارای حق چاپ دیزنی استفاده شود. در این مقاله تصاویری مانند «قوطیهای باد لایت با مارک جنگ ستارگان» و «سفید برفی شبیه به یک ویپ» وجود داشت.
سخنگوی مایکروسافت در بیانیهای به CNBC گفت که این شرکت از تلاشهای کارمندانش برای آزمایش فناوریها و خدماتش برای کمک به امنتر کردن آنها قدردانی میکند. این سخنگو افزود:
وقتی نوبت به دور زدن محافظتها یا نگرانیهایی میرسد که میتوانند به طور بالقوه بر خدمات یا شرکای ما تأثیر بگذارند، ما کانالهای گزارشدهی داخلی قوی را برای بررسی و حل مشکلات ایجاد کردهایم، و کارمندان خود را تشویق میکنیم تا از آنها استفاده کنند تا بتوانیم به درستی نگرانیهای آنها را تأیید و برطرف کنیم. بیایید بررسی کنیم.
در ماه فوریه، گوگل پس از اینکه متوجه شد از این ابزار برای ایجاد تصاویر توهین آمیز نژادپرستانه استفاده می شود، هوش مصنوعی تولید کننده تصویر Jumnai را تعطیل کرد. این شرکت میگوید که در حال توسعه حفاظتهای جدید برای جلوگیری از ایجاد تصاویر مشابه در صورت فعال شدن مجدد این ویژگی است.
تحقیقات جدید مرکز مقابله با نفرت دیجیتال نشان داده است که هوش مصنوعی تولید کننده تصویر، از جمله مایکروسافت، می تواند به راحتی برای ایجاد تصاویر طراحی شده برای انتشار اطلاعات نادرست در مورد انتخابات و نامزدها استفاده شود.
در نهایت، افشاگری های شین جونز نشان می دهد که هوش مصنوعی مایکروسافت، با وجود محافظت ها، همچنان می تواند برای ایجاد محتوای نامناسب و مضر مورد استفاده قرار گیرد. این نگرانی ها را در مورد احتمال سوء استفاده از هوش مصنوعی برای انتشار اطلاعات نادرست و سخنان نفرت ایجاد می کند. شرکتهای فناوری باید برای ایمنتر کردن هوش مصنوعی و جلوگیری از سوء استفاده از آن تلاش بیشتری کنند.
هشدار مهندس مایکروسافت در مورد ویژگی های خطرناک Copilot Designer اولین بار در TekNak – اخبار دنیای فناوری پدیدار شد. ظاهر شد.
گفتگو در مورد این post