
- تتيح الشراكة الجديدة لـ OpenAI الوصول إلى مئات الآلاف من وحدات معالجة الرسومات Nvidia على AWS
- ستقوم AWS بتجميع وحدات معالجة الرسومات GB200 وGB300 لأداء الذكاء الاصطناعي بزمن وصول منخفض
- يمكن لـ OpenAI توسيع استخدام الحوسبة الخاص بها حتى عام 2027 بموجب هذه الاتفاقية
تتقدم صناعة الذكاء الاصطناعي بشكل أسرع من أي تقنية أخرى في التاريخ، كما أن طلبها على القوة الحاسوبية هائل.
ولتلبية هذا الطلب، دخلت OpenAI وAmazon Web Services (AWS) في شراكة متعددة السنوات يمكن أن تعيد تشكيل كيفية إنشاء أدوات الذكاء الاصطناعي ونشرها.
يمنح هذا التعاون، الذي تبلغ قيمته 38 مليار دولار أمريكي، OpenAI إمكانية الوصول إلى البنية التحتية الواسعة لشركة AWS لتشغيل وتوسيع نطاق أعباء عمل الذكاء الاصطناعي الأكثر تقدمًا.
بناء أساس للقوة الحاسوبية الهائلة
تمنح الصفقة OpenAI إمكانية الوصول الفوري إلى أنظمة حوسبة AWS المدعومة بوحدات معالجة الرسوميات Nvidia وAmazon EC2 UltraServers.
تم تصميم هذه الأنظمة لتوفير أداء عالٍ وزمن وصول منخفض لعمليات الذكاء الاصطناعي كثيرة المتطلبات، بما في ذلك التدريب والاستدلال على نموذج ChatGPT.
قال سام ألتمان، المؤسس المشارك والرئيس التنفيذي لشركة OpenAI، “إن توسيع نطاق الذكاء الاصطناعي يتطلب حوسبة ضخمة وموثوقة”. “تعمل شراكتنا مع AWS على تعزيز النظام البيئي الحسابي الواسع الذي سيدعم هذا العصر القادم ويجلب الذكاء الاصطناعي المتقدم للجميع.”
تقول AWS إن البنية الجديدة ستجمع وحدات معالجة الرسومات مثل GB200 وGB300 ضمن الأنظمة المترابطة لضمان كفاءة المعالجة السلسة عبر أعباء العمل.
ومن المتوقع أن يتم نشر البنية التحتية بالكامل قبل نهاية عام 2026، مع وجود مجال للتوسع بشكل أكبر حتى عام 2027.
قال مات جارمان، الرئيس التنفيذي لشركة AWS: “مع استمرار OpenAI في دفع حدود ما هو ممكن، ستكون البنية التحتية الأفضل في فئتها لـ AWS بمثابة العمود الفقري لطموحاتها في مجال الذكاء الاصطناعي”. “يُظهر اتساع نطاق الحوسبة المُحسّنة وإتاحتها الفورية السبب الذي يجعل AWS في وضع فريد لدعم أعباء عمل الذكاء الاصطناعي الضخمة في OpenAI.”
ومن المتوقع أن تلعب البنية التحتية لشركة AWS، المعروفة بالفعل بقابليتها للتوسع في الاستضافة السحابية واستضافة الويب، دورًا مركزيًا في نجاح الشراكة.
ستستخدم مراكز البيانات التي تتعامل مع أعباء عمل OpenAI مجموعات متصلة بإحكام قادرة على إدارة مئات الآلاف من وحدات المعالجة.
قد يلاحظ المستخدمون العاديون قريبًا أدوات ذكاء اصطناعي أسرع وأكثر استجابة مدعومة ببنية تحتية أقوى تدعم ChatGPT والخدمات المماثلة.
يمكن للمطورين والشركات الحصول على وصول أبسط وأكثر مباشرة إلى نماذج OpenAI من خلال AWS، مما يسهل دمج الذكاء الاصطناعي في التطبيقات وأنظمة البيانات.
ومع ذلك، فإن القدرة على توسيع هذا الأمر ليشمل عشرات الملايين من وحدات المعالجة المركزية تثير احتمالات تقنية وأسئلة لوجستية حول التكلفة والاستدامة والكفاءة على المدى الطويل.
يمكن أن يؤدي هذا التوسيع السريع للموارد الحاسوبية إلى زيادة استخدام الطاقة وارتفاع تكاليف صيانة هذه الأنظمة الضخمة.
كما أن تركيز تطوير الذكاء الاصطناعي تحت إشراف موفري الخدمات السحابية الرئيسيين قد يزيد من المخاوف بشأن التبعية والسيطرة وتقليل المنافسة.
تعمل OpenAI وAWS معًا منذ فترة. في وقت سابق من العام، أتاحت OpenAI نماذجها الأساسية من خلال Amazon Bedrock، مما سمح لمستخدمي AWS بدمجها في أنظمتهم الحالية.
إن توفر هذه النماذج على منصة استضافة سحابية رئيسية يعني أن المزيد من المطورين يمكنهم تجربة أدوات الذكاء الاصطناعي التوليدية لتحليل البيانات والترميز والأتمتة.
تستخدم شركات مثل Peloton وThomson Reuters وVerana Health بالفعل نماذج OpenAI داخل بيئة AWS لتعزيز سير عمل أعمالها.
اتبع TechRadar على أخبار جوجل و أضفنا كمصدر مفضل للحصول على أخبار الخبراء والمراجعات والآراء في خلاصاتك. تأكد من النقر على زر المتابعة!
وبالطبع يمكنك أيضًا اتبع TechRadar على TikTok للحصول على الأخبار والمراجعات وفتح الصناديق في شكل فيديو، والحصول على تحديثات منتظمة منا على واتساب أيضاً.

التعليقات