اینتل اعلام کرد که شتاب دهنده های هوش مصنوعی Gaudi 2 این شرکت جایگزین مناسبی برای تراشه های Nvidia هستند.
Hugging Face یک شرکت فرانسوی-آمریکایی است که ابزارهای کامپیوتری را برای ساخت برنامه های کاربردی با استفاده از یادگیری ماشین توسعه می دهد. Hugging Face توانایی تولید متن با استفاده از مدل های Llama 2 با حداکثر 70 میلیارد پارامتر را نشان داده است. اینتل با گسترش اکوسیستم نرم افزار هوش مصنوعی خود، محبوب ترین وظایف هوش مصنوعی را هدف قرار داده است که شامل مدل های زبان در مقیاس بزرگ (LLM) می شود.
این امر با استفاده از Habana Optimum که به عنوان رابطی برای کتابخانههای ترانسفورماتور و پخشکننده عمل میکند و پردازندههای Habana Gaudi اینتل مانند Gaudi 2 امکانپذیر شده است. اینتل قبلاً قابلیتها و عملکرد هوش مصنوعی پردازندههای Gaudi 2 خود را در برابر آن به نمایش گذاشته است. پردازندههای گرافیکی A100 انویدیا، یکی از گزینههای محبوب در بازار؛ اما گائودی 2 در ارائه عملکرد سریعتر با TCO رقابتی، عملکرد تحسین برانگیزی دارد.
در آخر نسخه ی نمایشیHugging Face سهولت تولید متن را با Llama 2 (7 میلیارد، 13 میلیارد، 70 میلیارد) با استفاده از همان خط لوله Habana Optimum و شتاب دهنده هوش مصنوعی Gaudi 2 اینتل نشان می دهد. نتیجه نهایی نشان می دهد که تراشه Gaudi 2 نه تنها ورودی های یک یا چندگانه را می پذیرد. در عوض، استفاده از آن بسیار آسان بود و میتوانست پلاگینهای سفارشی را در اسکریپتها مدیریت کند. صورت در آغوش گرفتن توضیح می دهد:
با انقلاب هوش مصنوعی مولد (GenAI)، تولید متن با مدلهای ترانسفورماتور منبع باز مانند Llama 2 به یک موضوع داغ تبدیل شده است. علاقهمندان و توسعهدهندگان هوش مصنوعی به دنبال استفاده از قابلیتهای تولید متن چنین مدلهایی برای کاربردها و کاربردهای خود هستند. این مقاله نشان میدهد که تولید متن با مدلهای خانواده Llama 2 (7 میلیارد، 13 میلیارد و 70 میلیارد) با استفاده از Optimum Habana و یک کلاس خط لوله سفارشی چقدر آسان است. شما می توانید مدل ها را تنها با چند خط کد پیاده سازی کنید!
این کلاس خط لوله سفارشی برای ارائه انعطاف پذیری و سهولت استفاده بسیار طراحی شده است. علاوه بر این، سطح قابل توجهی از انتزاع را فراهم می کند و تولید متن پایان به انتها را انجام می دهد که شامل پیش و پس پردازش می شود. راه های مختلفی برای استفاده از خط لوله وجود دارد. می توانید اسکریپت run_pipeline.py را از مخزن Habana Optimum اجرا کنید و کلاس pipeline را به اسکریپت های پایتون خود اضافه کنید یا کلاس های LangChain را با آن مقداردهی اولیه کنید.
ما یک خط لوله تولید متن سفارشی را بر روی شتاب دهنده هوش مصنوعی Gaudi 2 اینتل ارائه کردیم که ورودی های یک یا چندگانه را به عنوان ورودی می پذیرد. این خط لوله از نظر اندازه مدل و پارامترهای موثر بر کیفیت تولید متن انعطاف بیشتری را ارائه می دهد. علاوه بر این، استفاده از آن در اسکریپت های شما بسیار آسان است و با LangChain سازگار است.
اینتل متعهد است که بخش هوش مصنوعی خود را در سال های آینده تسریع کند. امسال، این شرکت قصد دارد نسل سوم Gaudi را با نام Gaudi 3 معرفی کند که انتظار میرود از گره پردازشی 5 نانومتری استفاده کند و سریعتر از Nvidia H100 ارزانتر باشد.
علاوه بر این، تیم آبی (اینتل) قصد دارد به طراحی همه جانبه با پردازندههای گرافیکی Falcon Shores نسل بعدی برود. این شرکت در حال باز کردن قابلیتهای هوش مصنوعی مانند رابط کاربری Llama 2 با PyTorch برای پردازندههای گرافیکی مصرفی سری A Arc است.
The post آغاز عصر جدیدی در هوش مصنوعی با شتاب دهنده های Gaudi 2 اینتل اولین بار در TechCrunch – اخبار دنیای فناوری ظاهر شد. ظاهر شد.
گفتگو در مورد این post