تعلن Intel وGoogle عن صفقة شرائح متعددة السنوات – ستقوم Google بنشر Intel Xeon مع وحدات IPU مخصصة للجيل التالي من الذكاء الاصطناعي والبنية التحتية السحابية
أعلنت إنتل وجوجل يوم الخميس عن تعاون متعدد السنوات ستواصل بموجبه جوجل نشر منصات Intel Xeon للجيل القادم من الذكاء الاصطناعي والبنية التحتية السحابية. ولن تعتمد هذه المنصات على وحدات المعالجة المركزية Xeon القادمة من Intel فحسب، بل ستعتمد أيضًا على وحدات معالجة البنية التحتية المخصصة (IPUs) التي تم تصميمها بشكل مشترك بين Intel وGoogle. ويأتي هذا الإعلان وسط الاعتماد المتسارع للمعالجات المخصصة المستندة إلى Arm لأحمال عمل الذكاء الاصطناعي.
وقال ليب بو تان، الرئيس التنفيذي لشركة إنتل: “يتطلب توسيع نطاق الذكاء الاصطناعي أكثر من مجرد مسرعات – فهو يتطلب أنظمة متوازنة. تعد وحدات المعالجة المركزية ووحدات IPU أساسية لتقديم الأداء والكفاءة والمرونة التي تتطلبها أعباء عمل الذكاء الاصطناعي الحديثة”.
تستخدم Google حاليًا معالجات Intel Xeon 5 وIntel Xeon 6 لمجموعة متنوعة من أعباء العمل، بما في ذلك تنسيق تدريب الذكاء الاصطناعي واسع النطاق، والاستدلال الحساس لزمن الوصول، والحوسبة للأغراض العامة. على سبيل المثال، تعمل أحدث وحدات المعالجة المركزية Xeon من Intel على تشغيل مثيلات C4 وN4. على الرغم من أن معالجات Axion المستندة إلى Armv9 من Google توفر للعملاق السحابي مزيدًا من التحكم والكفاءة بتكلفة أقل، فإن العديد من أعباء العمل التي يتم تشغيلها في مراكز بيانات Google تحتاج إما إلى أن تكون متوافقة مع الإصدارات السابقة مع x86 أو تحتاج فقط إلى الحد الأقصى من أداء الخيط الفردي الذي توفره وحدات المعالجة المركزية Intel Xeon. وهذا أمر من المتوقع أن يستمر لسنوات قادمة، ولهذا السبب قامت الشركتان بتوقيع الصفقة.
يستمر المقال أدناه
في محاولة لجعل منصات Intel Xeon أكثر كفاءة وملاءمة لمراكز البيانات واسعة النطاق، ستشارك Google أيضًا في تطوير وحدات IP مخصصة مع Intel لتفريغ وظائف الشبكات والتخزين والأمان من وحدات المعالجة المركزية المضيفة. في نهاية المطاف، ستجمع منصات Intel Xeon بين بنية x86 والأداء العالي للخيط الفردي ومعالجة البنية التحتية المخصصة، مما يجعلها أكثر قدرة على المنافسة في بيئات Google المخصصة للغاية.
قال أمين فاهدات، نائب الرئيس الأول ورئيس قسم التكنولوجيا في البنية التحتية للذكاء الاصطناعي في Google: “تظل وحدات المعالجة المركزية وتسريع البنية التحتية بمثابة حجر الزاوية في أنظمة الذكاء الاصطناعي – بدءًا من تنسيق التدريب وحتى الاستدلال والنشر”.
يأتي هذا الإعلان في الوقت الذي يعمل فيه مطورو الأنظمة الأساسية والذكاء الاصطناعي على تسريع اعتماد وحدات المعالجة المركزية المخصصة الخاصة بهم استنادًا إلى بنية مجموعة تعليمات Arm. قبل أسبوع فقط، أصدرت شركة Counterpoint Research مذكرة تدعي أن 90% من خوادم الذكاء الاصطناعي التي تشغل معالجات السيليكون المخصصة ستعتمد على Arm ISA، تاركة x86 وRISC-V حوالي 10%. يشير إعلان Intel وGoogle بوضوح إلى أن وحدات المعالجة المركزية Xeon المزودة بوحدات IPU مخصصة سيستمر استخدامها للذكاء الاصطناعي وأعباء العمل الأخرى الصعبة لسنوات قادمة، وهو أمر متوقع على أي حال.
تعمل معالجات Xeon من Intel على تشغيل البنية التحتية السحابية منذ إنشائها في العقد الأول من القرن الحادي والعشرين، وخوادم Google الخاصة قبل ذلك، لذلك لن يغادر x86 بشكل عام وXeon بشكل خاص مقر مركز بيانات Google في أي وقت قريب. ومع ذلك، فإن الإعلان يعيد التأكيد بوضوح على أهمية وحدات المعالجة المركزية Xeon من Intel، وعندما تأتي مثل هذه الرسالة من Google – التي كانت تنشر مسرعات مخصصة لأغراض خاصة لسنوات عبر جميع خدماتها تقريبًا – يتم تضخيمها بشكل كبير.
احصل على أفضل أخبار Tom's Hardware والمراجعات المتعمقة، مباشرة إلى صندوق الوارد الخاص بك.
وأضاف فاهدات: “لقد كانت إنتل شريكًا موثوقًا به لما يقرب من عقدين من الزمن، وتمنحنا خريطة طريق Xeon الخاصة بهم الثقة في أننا نستطيع الاستمرار في تلبية متطلبات الأداء والكفاءة المتزايدة لأعباء العمل لدينا”.
يتبع أجهزة توم على أخبار جوجل، أو أضفنا كمصدر مفضل، للحصول على آخر الأخبار والتحليلات والمراجعات في خلاصاتك.
التعليقات