التخطي إلى المحتوى

تقريبًا، يمتلك جميع مقدمي الخدمات السحابية واسعة النطاق (CSPs)، بالإضافة إلى بعض المطورين الرائدين لمسرعات الذكاء الاصطناعي في الوقت الحاضر، برامج السيليكون المخصصة الخاصة بهم والتي تركز ليس فقط على تطوير مسرعات الذكاء الاصطناعي، ولكن أيضًا على وحدات المعالجة المركزية المخصصة للأغراض العامة والتي تعتمد عادةً على بنية مجموعة تعليمات الذراع (ISA). على مدى السنوات القليلة المقبلة، سيزيد انتشار وحدات المعالجة المركزية المخصصة المستندة إلى Arm ISA داخل خوادم الذكاء الاصطناعي إلى 90%، تاركًا x86 وArm حوالي 10%، وفقًا لشركة Counterpoint Research.

سيطرت معالجات x86 من AMD وIntel لفترة طويلة على الخوادم ذات الأغراض العامة، ولهذا السبب اعتمدت معظم خوادم الذكاء الاصطناعي في البداية على معالجات Opteron وXeon. ومع ذلك، فإن وحدات المعالجة المركزية المخصصة المستندة إلى Arm والمصممة لأحمال عمل الذكاء الاصطناعي المحددة كثيفة البيانات تكون أكثر تكلفة وأكثر كفاءة في استهلاك الطاقة. علاوة على ذلك، نظرًا لحقيقة أن أعباء عمل الذكاء الاصطناعي هي أعباء عمل ناشئة، فإن التوافق مع الإصدارات السابقة مع x86 ليس أمرًا حيويًا. ولتحقيق هذه الغاية، قامت AWS وGoogle وMicrosoft بتطوير معالجاتها الخاصة المستندة إلى Arm من أجل أحمال العمل الخاصة بها، في حين أن Meta هي عميل ألفا لمعالج AGI الخاص بشركة Arm.

Fonte

التعليقات

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *