تقريبًا، يمتلك جميع مقدمي الخدمات السحابية واسعة النطاق (CSPs)، بالإضافة إلى بعض المطورين الرائدين لمسرعات الذكاء الاصطناعي في الوقت الحاضر، برامج السيليكون المخصصة الخاصة بهم والتي تركز ليس فقط على تطوير مسرعات الذكاء الاصطناعي، ولكن أيضًا على وحدات المعالجة المركزية المخصصة للأغراض العامة والتي تعتمد عادةً على بنية مجموعة تعليمات الذراع (ISA). على مدى السنوات القليلة المقبلة، سيزيد انتشار وحدات المعالجة المركزية المخصصة المستندة إلى Arm ISA داخل خوادم الذكاء الاصطناعي إلى 90%، تاركًا x86 وArm حوالي 10%، وفقًا لشركة Counterpoint Research.
سيطرت معالجات x86 من AMD وIntel لفترة طويلة على الخوادم ذات الأغراض العامة، ولهذا السبب اعتمدت معظم خوادم الذكاء الاصطناعي في البداية على معالجات Opteron وXeon. ومع ذلك، فإن وحدات المعالجة المركزية المخصصة المستندة إلى Arm والمصممة لأحمال عمل الذكاء الاصطناعي المحددة كثيفة البيانات تكون أكثر تكلفة وأكثر كفاءة في استهلاك الطاقة. علاوة على ذلك، نظرًا لحقيقة أن أعباء عمل الذكاء الاصطناعي هي أعباء عمل ناشئة، فإن التوافق مع الإصدارات السابقة مع x86 ليس أمرًا حيويًا. ولتحقيق هذه الغاية، قامت AWS وGoogle وMicrosoft بتطوير معالجاتها الخاصة المستندة إلى Arm من أجل أحمال العمل الخاصة بها، في حين أن Meta هي عميل ألفا لمعالج AGI الخاص بشركة Arm.
ونتيجة لذلك، بدأ التبني يتكشف عبر العديد من أدوات التوسعة الفائقة بالتوازي. تعمل AWS على توسيع دور معالجات Graviton الخاصة بها عبر الأنظمة المستندة إلى Trainium، مع الاحتفاظ بـ x86 في بعض التكوينات لأسباب التوافق؛ تعتمد البنية التحتية للجيل التالي من مادة TPU من Google على وحدة المعالجة المركزية Axion Arm؛ بينما قامت Microsoft بإقران وحدة المعالجة المركزية Azure Cobalt Arm مع مسرعات Maia الخاصة بها منذ البداية لإنشاء بنية تحتية متكاملة رأسياً للذكاء الاصطناعي. من المقرر أيضًا أن تبدأ Meta في نشر وحدات المعالجة المركزية AGI الخاصة بشركة Arm قريبًا.
يستمر المقال أدناه
وقال نيل شاه، نائب رئيس الأبحاث في شركة Counterpoint Research: “إن الانتقال من نظام x86 إلى خوادم Arm in AI ليس مجرد تبديل واحد”. “لقد تم تنفيذه جيلًا بعد جيل، وتكوينًا بعد تكوين. يقوم المتوسعون الفائقون باتخاذ خيارات مدروسة بناءً على احتياجات النشر المحددة الخاصة بهم، وكتابة برامج متوافقة وقابلة للتشغيل المتبادل، والاقتصاديات مشجعة للغاية. ومن المتوقع أن يتسارع التحول بشكل مفيد في النصف الثاني من عام 2026، مدفوعًا بالنشر الواسع النطاق لوحدات المعالجة المركزية Arm الداخلية جنبًا إلى جنب مع منصات ASIC من الجيل التالي عبر المقياس الفائق الرئيسي.”
في الوقت الحاضر، لا تزال غالبية وحدات المعالجة المركزية التي تشغل خوادم الذكاء الاصطناعي تعمل بنظام x86، ولكن هذا سيتغير قريبًا، وبحلول عام 2030، ستعتمد 90% من خوادم الذكاء الاصطناعي التي تستخدم معالجات مخصصة على Arm، تاركة 10% فقط لـ x86 وRISC-V. تجدر الإشارة إلى أن الكثير من خوادم الذكاء الاصطناعي ستستمر في الاعتماد على معالجات EPYC وXeon الجاهزة للاستخدام من الموردين التقليديين، على الرغم من أن الاعتماد الواسع النطاق لـ Arm من قبل المتوسعين الفائقين لبرامج السيليكون المخصصة الخاصة بهم يجب أن يكون إشارة إلى AMD وIntel لجعل برامج وحدة المعالجة المركزية المخصصة الخاصة بهم أكثر جاذبية للعملاء.
وأضاف شاه: “ستمثل مشاريعنا التحليلية وحدات المعالجة المركزية القائمة على Arm ما لا يقل عن 90% من عمليات نشر وحدة المعالجة المركزية المضيفة في خوادم AI ASIC المخصصة بحلول عام 2029، ارتفاعًا من حوالي 25% في عام 2025، وهو تحول هيكلي مدفوع بالطرح المتسارع لبرامج Arm CPU الداخلية عبر وحدات المعالجة المركزية الرئيسية.”
تقوم AMD ببناء منصات الذكاء الاصطناعي المدمجة رأسيًا الخاصة بها والتي تتميز بمعالجات x86 EPYC، ومسرعات الذكاء الاصطناعي من سلسلة Instinct MI-series، ووحدات Pensando DPU، وPensando NIC، لذلك فمن المعقول افتراض أن وحدات المعالجة المركزية هذه مصممة خصيصًا لأحمال عمل الذكاء الاصطناعي. وفي الوقت نفسه، تعمل إنتل على تطوير معالجات Xeon مخصصة لمنصات الذكاء الاصطناعي من الجيل التالي من Nvidia، مما يشير إلى أنه سيتم أيضًا تحسين هذه المعالجات بشكل أساسي لأحمال عمل الذكاء الاصطناعي. بشكل عام، في حين أن شركة Arm سوف تصبح أكبر بشكل ملحوظ في مجالات خوادم الذكاء الاصطناعي على مدى السنوات الأربع إلى الخمس القادمة، فإن x86 ستستمر في السيطرة على حصة كبيرة من هذا السوق.
احصل على أفضل أخبار Tom's Hardware والمراجعات المتعمقة، مباشرة إلى صندوق الوارد الخاص بك.
يتبع أجهزة توم على أخبار جوجل، أو أضفنا كمصدر مفضل، للحصول على آخر الأخبار والتحليلات والمراجعات في خلاصاتك.
التعليقات