
- توفر شريحة Meta's الفائقة بقدرة 1700 واط 30 PFLOPs وذاكرة HBM سعة 512 جيجابايت
- تعطي MTIA 450 و500 الأولوية للاستدلال على أعباء عمل ما قبل التدريب
- ستدعم أجيال MTIA المستقبلية استدلال GenAI وأحمال عمل التصنيف
تعمل Meta على تطوير بنيتها التحتية للذكاء الاصطناعي من خلال مجموعة من شرائح MTIA المخصصة المصممة خصيصًا لأحمال العمل الاستدلالية عبر تطبيقاتها.
تعمل الشركة على تطوير شريحة فائقة بقدرة 1700 واط قادرة على 30 PFLOPs و512 جيجابايت من HBM، مدمجة في نفس البنية التحتية لـ MTIA للتعامل مع مهام الاستدلال على نطاق واسع.
ومن المثير للاهتمام أنها تحقق هذا العمل الفذ دون أي من أصدقائها – لا Nvidia أو AMD أو Intel أو ARM.
يستمر المقال أدناه
وفقًا لـ Meta، تم بالفعل نشر مئات الآلاف من شرائح MTIA في الإنتاج ودعم التصنيف والتوصيات وأعباء عمل خدمة الإعلانات.
تعد هذه الرقائق جزءًا من نظام متكامل تم تحسينه لتلبية متطلبات Meta المحددة، مما يحقق كفاءة حوسبة أعلى من الأجهزة ذات الأغراض العامة لأحمال العمل المقصودة.
على عكس الشركات الأخرى ذات النطاق الفائق مثل Google وAWS وMicrosoft وApple، تتبع Meta استراتيجية سيليكون مخصصة بالكامل.
يعطي هذا التصميم الأولوية للكفاءة على الاستخدام للأغراض العامة، مما يسمح بتشغيل الاستدلال بشكل أكثر فعالية من حيث التكلفة مقارنةً بوحدات معالجة الرسومات أو وحدات المعالجة المركزية السائدة.
فهو يحافظ على التوافق مع البرامج المتوافقة مع معايير الصناعة مثل PyTorch، وvLLM، وTriton.
وتتوقع خارطة طريق Meta's MTIA أربعة أجيال جديدة من الرقائق خلال العامين المقبلين، بما في ذلك MTIA 300، الذي يتم إنتاجه حاليًا من أجل التصنيف والتوصيات.
ستقوم الأجيال القادمة — MTIA 400، و450، و500 — بتوسيع الدعم لأحمال عمل الاستدلال GenAI، مع تصميمات قادرة على الملاءمة مع البنية التحتية للحامل الحالية.
تركز Meta على التطوير السريع والمتكرر، حيث تطلق شرائح جديدة كل ستة أشهر تقريبًا من خلال تصميمات معيارية وقابلة لإعادة الاستخدام.
يسمح التصميم المعياري بإسقاط الرقائق الجديدة في أنظمة الحامل الحالية، مما يقلل من احتكاك النشر وتسريع وقت الإنتاج.
ويسمح هذا النهج للشركة باعتماد تقنيات الذكاء الاصطناعي الناشئة وتحسينات الأجهزة بشكل أسرع من المنافسين، الذين عادة ما يتناوبون لمدة سنة إلى سنتين لكل جيل.
على عكس معظم شرائح الذكاء الاصطناعي السائدة التي تعطي الأولوية للتدريب المسبق واسع النطاق لـ GenAI ثم تتكيف لاحقًا من أجل الاستدلال، تركز Meta's MTIA 450 و500 أولاً على أعباء عمل الاستدلال.
يمكن للرقائق أيضًا أن تدعم مهام أخرى، بما في ذلك التدريب على التصنيف والتوصيات أو تدريب GenAI، لكن تصميمها يبقيها متناغمة مع النمو المتوقع في الطلب على الاستدلال.
يتوافق تصميم Meta على مستوى النظام مع معايير Open Compute Project، مما يتيح النشر السلس في مراكز البيانات مع الحفاظ على كفاءة حوسبة عالية.
تعترف الشركة بأنه لا توجد شريحة واحدة يمكنها التعامل مع النطاق الكامل لأعباء عمل الذكاء الاصطناعي الخاصة بها.
ولهذا السبب تقوم بنشر أجيال متعددة من MTIA جنبًا إلى جنب مع السيليكون التكميلي من البائعين الآخرين.
وتهدف الاستراتيجية إلى تحقيق التوازن بين المرونة والأداء مع تسريع الابتكار نحو الذكاء الشخصي الفائق.
اتبع TechRadar على أخبار جوجل و أضفنا كمصدر مفضل للحصول على أخبار الخبراء والمراجعات والآراء في خلاصاتك. تأكد من النقر على زر المتابعة!
وبالطبع يمكنك أيضًا اتبع TechRadar على TikTok للحصول على الأخبار والمراجعات وفتح الصناديق في شكل فيديو، والحصول على تحديثات منتظمة منا على واتساب أيضاً.

التعليقات