كسرت Nvidia صمتها بعد التقارير التي تفيد بأن Meta تجري مناقشات متقدمة لإنفاق مليارات الدولارات على وحدات معالجة Tensor المخصصة من Google (TPUs)، وهي خطوة من شأنها أن تمثل تحولًا نادرًا في استراتيجية البنية التحتية للذكاء الاصطناعي للشركة. أصدرت Nvidia، التي شهدت انخفاضًا في أسهمها الأسبوع الماضي مع ارتفاع سهم Alphabet، بيانًا محددًا ردًا على ذلك يوم الثلاثاء.
وكتبت نفيديا: “نحن سعداء بنجاح جوجل – لقد حققوا تقدمًا كبيرًا في مجال الذكاء الاصطناعي ونحن مستمرون في إمداد جوجل”. “إن NVIDIA تسبق الصناعة بجيل – إنها المنصة الوحيدة التي تدير كل نموذج من نماذج الذكاء الاصطناعي وتقوم بذلك في كل مكان تتم فيه الحوسبة. توفر NVIDIA أداءً وتنوعًا وقابلية للاستبدال أكبر من ASICs، والتي تم تصميمها لأطر أو وظائف ذكاء اصطناعي محددة.”
يسلط الرد الضوء على وعي Nvidia بما هو على المحك. في حين أن خطة Meta المعلن عنها تتضمن مرحلة تأجير أولية وعمليات شراء مرحلية تبدأ في عام 2027، فإن أي محور جدي بعيدًا عن أجهزة Nvidia سيكون له صدى في جميع أنحاء النظام البيئي للذكاء الاصطناعي. أصبحت بنية TPU الخاصة بشركة Google، والتي كانت تستخدم في السابق داخل الشركة فقط، الآن جزءًا من محاولة قوية للاستيلاء على أعمال التوسعة الفائقة من منصة Nvidia المهيمنة.
نحن سعداء بنجاح Google – لقد حققوا تقدمًا كبيرًا في مجال الذكاء الاصطناعي ونحن مستمرون في إمداد Google. NVIDIA هي جيل متقدم في الصناعة – إنها النظام الأساسي الوحيد الذي يقوم بتشغيل كل نموذج من نماذج الذكاء الاصطناعي ويقوم بذلك في كل مكان تتم فيه الحوسبة. تقدم NVIDIA المزيد…25 نوفمبر 2025
تسريع ASIC مقابل تعدد استخدامات GPU
إن وحدات TPU من Google عبارة عن شرائح خاصة بالتطبيقات، تم ضبطها لعمليات المصفوفة عالية الإنتاجية والتي تعد مركزية للتدريب والاستدلال على نماذج اللغة الكبيرة. يتميز الجيل الحالي من TPU v5p بسعة 95 جيجابايت من ذاكرة HBM3 وأقصى إنتاجية bfloat16 تزيد عن 450 TFLOPS لكل شريحة. يمكن أن تحتوي كبسولات TPU v5p على ما يقرب من 9000 شريحة وهي مصممة للتوسع بكفاءة داخل البنية التحتية لـ Google Cloud.
والأهم من ذلك، أن Google تمتلك بنية TPU ومجموعة التعليمات ومجموعة البرامج. تعمل Broadcom كشريك Google في تنفيذ السيليكون، حيث تقوم بتحويل بنية Google إلى تخطيط ASIC قابل للتصنيع. توفر Broadcom أيضًا أجهزة SerDes عالية السرعة وإدارة الطاقة والتعبئة والتغليف وتتولى اختبارات ما بعد التصنيع. يتم تنفيذ تصنيع الرقائق بواسطة TSMC نفسها.
تتم برمجة وحدات TPU عبر حزمة مترجم XLA من Google، والتي تعمل بمثابة الواجهة الخلفية لأطر عمل مثل JAX وTensorFlow. في حين أن النهج القائم على XLA يوفر إمكانية نقل الأداء عبر أهداف وحدة المعالجة المركزية (CPU) ووحدة معالجة الرسومات (GPU) وTPU، فإنه يتطلب عادةً من مطوري النماذج اعتماد مكتبات وأنماط تجميع محددة مصممة خصيصًا لبيئة تشغيل Google.
على النقيض من ذلك، فإن حزمة Nvidia أوسع وأكثر عمقًا في سير العمل في الصناعة. تشكل CUDA وcuDNN وTensorRT وأدوات المطورين ذات الصلة الركيزة الافتراضية لتطوير الذكاء الاصطناعي ونشره على نطاق واسع. تمتد هذه الأدوات إلى تحسين النماذج، والتدريب الموزع، والجدولة ذات الدقة المختلطة، والاستدلال بزمن وصول منخفض، وكلها مدعومة بنظام بيئي ناضج من الأطر، والنماذج المدربة مسبقًا، والدعم التجاري.
ونتيجة لذلك، فإن الانتقال من CUDA إلى XLA ليس بالمهمة السهلة. يجب على المطورين إعادة كتابة التعليمات البرمجية أو إعادة ضبطها، وإدارة اختناقات الأداء المختلفة، وفي بعض الحالات اعتماد أطر عمل جديدة تمامًا. تتمتع Meta بتطوير JAX داخليًا وهي في وضع أفضل من معظمها للتجربة، لكن الاحتكاك يظل عاملاً أساسيًا لاعتماد مادة TPU على نطاق أوسع.
مرونة المصدر الثاني
ومع ذلك، فإن رقائق جوجل ذات غرض واحد. تقوم مادة TPU بشيء واحد وتفعله بشكل جيد، ولكن بحدود. وهي غير مناسبة لمحاكاة HPC، أو الحوسبة العلمية ذات الأغراض العامة، أو أي عبء عمل يتطلب نماذج تنفيذ مرنة أو دعم kernel واسع النطاق. تعمل أحمال عمل TPU فقط في Google Cloud، بينما تعمل شرائح Nvidia عبر السحابات والأنظمة المحلية ومحطات العمل المحلية وأجهزة الحافة.
تعتبر هذه المرونة أمرًا أساسيًا جدًا في حالة Nvidia. إن أدوات Hyperscalers مثل Meta ليست جديدة على السيليكون المخصص؛ قامت AWS بتطوير Trainium، كما قامت Microsoft بتطوير Maia، وتعود جهود Google الخاصة بـ TPU إلى ما يقرب من عقد من الزمن. الجديد هو الاقتراح القائل بأن أحد أجهزة Hyperscaler الأخرى قد ينقل بعض التدريب من منصة Nvidia. وحتى لو كان ذلك جزئيا فقط، فإنه يسلط الضوء على الرغبة في اكتساب المرونة والقدرة على المساومة من مصدر ثان.
غريس بلاكويل تعزز مكانة نفيديا
وفي الوقت نفسه، تتجه Nvidia بشكل أعمق نحو الأسواق العمودية حيث لا تتنافس وحدات TPU. لديها شراكات في مجالات السيارات والروبوتات والتصنيع وتجارة التجزئة. من وحدات Jetson edge إلى حواسيب DGX العملاقة، تضع Nvidia مكدسها كبيئة تنفيذ افتراضية لاستدلال الذكاء الاصطناعي في كل مكان، وليس فقط لتدريب النماذج الكبيرة.
من خلال استكشاف البدائل الآن، من المحتمل أن تكتسب Meta نفوذًا في مفاوضات الأجهزة المستقبلية والتأمين ضد تقييد البائع. حتى لو لم تحل وحدات TPU من Google محل H100s بالجملة – وهو ما لن يحدث على الأرجح – فيمكنها القيام بمهام استدلالية محددة أو العمل كسعة فائضة في دورات الذروة، خاصة إذا كانت الظروف الاقتصادية مواتية.
في هذه المرحلة، يبدو اعتماد Meta على مادة TPU أكثر من مجرد تنويع بسيط. تواصل Nvidia تشغيل أعباء عمل الذكاء الاصطناعي الأكبر والأكثر وضوحًا في الصناعة. إن الجمع بين الأدوات البرمجية للشركة وقفل المطورين وإمكانات الأغراض العامة يمنحها تقدمًا لا يمكن لـ TPU محوه بين عشية وضحاها.
التحدي الأكبر الذي يواجه Google في كل هذا هو اكتساب الأرض من Nvidia. من شأن مشاركة Meta أن تمنح وحدات TPU مصداقية تتجاوز Google Cloud وAnthropic، لكن الحجم ليس سوى جزء من المعادلة. لا يزال يتعين علينا رؤية ما إذا كانت وحدات TPU قادرة على تلبية احتياجات سير عمل الذكاء الاصطناعي المعقدة والمتطورة خارج بيئة خاضعة لرقابة مشددة – وما إذا كان المزيد من المتوسعين الفائقين على استعداد لوضع ثقتهم في منصة تعيش إلى حد كبير داخل حديقة مسورة لشركة واحدة.

التعليقات