العربیه: “عمیق جعلی” [جعل عمیق]صداها، تصاویر و ویدئوهای مربوط به افراد واقعی و مکان ها و موقعیت ها توسط هوش مصنوعی برای فریب مخاطب تولید می شود. شرکت های فناوری شروع به پرچم گذاری دیپ فیک ها کرده اند تا از تأثیرگذاری آنها بر ایران تحلیلات آینده در سراسر جهان جلوگیری کنند.
این اقدامات تا کنون گریزان بوده است و کارشناسان نگران هستند که پلتفرم های رسانه های اجتماعی ممکن است برای مدیریت هرج و مرج ناشی از هوش مصنوعی در طول ایران تحلیلات گسترده جهانی در سال ۲۰۲۴ آماده نباشند.
«Artificial Intelligence Image Recognition Classifier» توسط OpenAI یکی از ابزارهایی بود که اخیراً در این زمینه معرفی شده است. به گفته این شرکت، ابزار مذکور می تواند ۹۸ درصد از خروجی های هوش مصنوعی را از مولد تصویر پیچیده خود به نام DALL-E 3 شناسایی کند. این ابزار همچنین حدود ۵ تا ۱۰ درصد از تصاویر تولید شده توسط سایر مدل های هوش مصنوعی را شناسایی می کند.
طبق گفته OpenAI، طبقهبندیکننده یک پاسخ باینری درست/نادرست ارائه میدهد که احتمال تولید تصویر هوش مصنوعی توسط DALL·E 3 را نشان میدهد. از این ابزار می توان برای نمایش خلاصه ای ساده از محتوا استفاده کرد که تأیید می کند محتوا توسط یک ابزار هوش مصنوعی تولید شده است و همچنین شامل فیلدهایی است که برنامه یا دستگاه و ابزار هوش مصنوعی مورد استفاده را شناسایی می کند.
OpenAI چندین ماه را صرف توسعه این ابزار کرد تا ابرداده های مقاوم در برابر دستکاری را به همه تصاویر ایجاد شده و ویرایش شده توسط DALL·E 3 اضافه کند، که می تواند برای شناسایی منبع محتوا استفاده شود. ابزار آشکارساز این ابرداده را می خواند و تصاویر جعلی را علامت گذاری می کند.
البته، این یک راه حل مناسب برای همه نیست، زیرا می توان ابرداده ها را حذف کرد و همچنین می توان محتوای جذابی را بدون این اطلاعات ایجاد کرد. با این حال، این اطلاعات را نمی توان به راحتی جعل کرد یا تغییر داد تا به منبع اعتماد آنلاین تبدیل شود.
گفتگو در مورد این post