دانشمندان مرکز تحقیقات یولیخ در آلمان با موفقیت هوش مصنوعی را آموزش دادند که مانند آلبرت انیشتین یا اسحاق نیوتن فکر می کند. با این نوع یادگیری، مدل می تواند الگوها را در مجموعه داده های پیچیده تشخیص دهد و نظریه های فیزیکی در مورد آنها بسازد.
بزرگانی چون انیشتین و نیوتن با نظریه هایی که آزمون زمان را پس داده اند و آزمایش ها و نظریه هایی که بر اساس آن ها شکل گرفته اند در تاریخ ماندگار شده اند. این نظریه ها علاوه بر مشاهدات خود، پدیده های دیگری را که در دنیای اطراف ما رخ می دهد نیز توضیح می دهند. اما چگونه یک هوش مصنوعی می تواند به تفکری مشابه دست یابد؟
آموزش هوش مصنوعی شبیه به ذهن انیشتین و نیوتن
دو راه کلی برای ایجاد یک نظریه یا فرضیه جدید وجود دارد. می توان از اصول و معادلات شناخته شده یک میدان برای استخراج فرضیه های جدید استفاده کرد. یا می توان از یک نظریه جدید برای توضیح رفتار یک شی یا پدیده جدید استفاده کرد. اما بخش دشوار این است که از روش مناسب برای ایجاد فرضیه استفاده کنید.
به جای آموزش هوش مصنوعی برای فکر کردن به داده های فیزیکی، دانشمندان از فیزیک برای درک نحوه عملکرد هوش مصنوعی استفاده کرده اند. محققان Yulich یک شبکه عصبی برای ترسیم رفتار پیچیده در یک سیستم سادهتر طراحی کردند. هوش مصنوعی این وظیفه را با ساده کردن روابط بین اجزای سیستم انجام داد.
سپس محققان از سیستم ساده شده برای ایجاد یک نقاشی معکوس با هوش مصنوعی آموزش دیده استفاده کردند. زمانی که این سیستم از اجزای ساده به اجزای پیچیده رسید، نظریه جدیدی ایجاد شد. این رویکرد مشابه کاری است که فیزیکدانان انجام می دهند، با این تفاوت که برهمکنش ها را فقط می توان در پارامترهای تعریف شده توسط هوش مصنوعی خواند.
به عبارت دیگر، از این طریق، تعاملات منظم بین بخش های مختلف عملکرد یک سیستم را توضیح می دهند. این شبیه کاری است که فیزیک انجام می دهد. به همین دلیل به این نوع مدل ها «فیزیک هوش مصنوعی» می گویند.
تفاوت فیزیک هوش مصنوعی با سایر مدل ها چیست؟
برای نشان دادن اینکه این مدل هوش مصنوعی چگونه فکر می کند، دانشمندان یولیش داده های اعداد دست نویس را تجزیه و تحلیل کرده اند. آنها نشان داده اند که چگونه برهمکنش پیکسل ها باعث ایجاد زیرساخت های کوچکی مانند لبه های اعداد می شود. با کمک هوش مصنوعی، محققان به این نظریه رسیدند که گروههایی از پیکسلهای روشنتر در شکل عدد دستنویس نقش دارند.
بسیاری از مدلهای هوش مصنوعی که در سالهای اخیر توسعه یافتهاند، مانند مدل ChatGPT، هوش غیرقابل توضیحی هستند. یعنی از داده هایی که برای آموزش استفاده می شود، یک نظریه داده استخراج می کنند. اما این نظریه ها قابل تفسیر نیستند زیرا به طور ضمنی در پارامترهای مدل آموزش دیده پنهان هستند.
مدلی که دانشمندان جولیخ توسعه داده اند در زمینه هوش مصنوعی قابل توضیح، به ویژه فیزیک هوش مصنوعی است. این هوش مصنوعی نظریه کشف شده را استخراج می کند و آن را به زبان تعاملات بین اجزای سیستم فرموله می کند. به عبارت دیگر، دانشمندان از زبان فیزیک برای مفهوم سازی عملکرد درونی هوش مصنوعی که انسان می تواند آن را درک کند، استفاده می کند.
لازم به ذکر است که این مدل به منابع زیادی برای پردازش نیاز دارد. تعداد تعاملات بین اجزای یک سیستم (مانند پیکسل های یک تصویر) می تواند به سرعت افزایش یابد و حجم محاسبات به صورت تصاعدی افزایش می یابد. اما امکان بهینه سازی این تعاملات وجود دارد. به عنوان مثال، مدل فقط می تواند بخش هایی از سیستم را با ۱۰۰۰ جزء، یعنی بخش هایی از تصویر با ۱۰۰۰ پیکسل ببیند. محققان می گویند که این نوع بهینه سازی را می توان در آینده بیشتر بهینه کرد.
منبع: دیجیاتو
گفتگو در مورد این post