أعلنت شركة كوالكوم يوم الاثنين رسميًا عن اثنين من مسرعات استدلال الذكاء الاصطناعي القادمة – AI200 وAI250 – والتي ستصل إلى السوق في عامي 2026 و2027. ويقال إن المسرعات الجديدة تتنافس مع حلول واسعة النطاق من AMD وNvidia مع تحسين الكفاءة وانخفاض التكاليف التشغيلية عند تشغيل أعباء عمل الذكاء الاصطناعي التوليدية واسعة النطاق. يؤكد الإعلان أيضًا على خطة كوالكوم لإصدار منتجات محدثة بإيقاع سنوي.
تعتمد كل من مسرعات Qualcomm AI200 وAI250 على وحدات المعالجة العصبية Qualcomm Hexagon (NPUs) المخصصة لأعباء عمل الذكاء الاصطناعي في مركز البيانات. قامت الشركة بتحسين وحدات المعالجة العصبية السداسية تدريجيًا في السنوات الأخيرة، لذا فإن أحدث الإصدارات من هذه المعالجات تتميز بالفعل بمسرعات عددية ومتجهة وموترة (في تكوين 12+8+1)، وتدعم تنسيقات البيانات مثل INT2 وINT4 وINT8 وINT16 وFP8 وFP16 واستدلال البلاط الصغير لتقليل حركة مرور الذاكرة وعنونة الذاكرة 64 بت والمحاكاة الافتراضية وتشفير نموذج الذكاء الاصطناعي العام. لمزيد من الأمان. يعد Scaling Hexagon لأحمال عمل مركز البيانات خيارًا طبيعيًا لشركة Qualcomm، على الرغم من أنه لم يتضح بعد ما هي أهداف الأداء التي ستحددها الشركة لوحدتي AI200 وAI250.
ستكون حلول Qualcomm's AI200 على نطاق الرف هي أول نظام استدلال على مستوى مركز البيانات للشركة يتم تشغيله بواسطة مسرعات AI200 مع 768 جيجابايت من ذاكرة LPDDR المدمجة (وهي ذاكرة كبيرة لمسرع الاستدلال) والتي ستستخدم وصلات PCIe البينية للتوسع والإيثرنت لقابلية التوسع. سيستخدم النظام التبريد السائل المباشر ومغلف طاقة يبلغ 160 كيلووات لكل حامل، وهو أيضًا استهلاك غير مسبوق للطاقة لحلول الاستدلال. بالإضافة إلى ذلك، سيدعم النظام الحوسبة السرية لعمليات النشر في المؤسسات. سيكون الحل متاحًا في عام 2026.
ويحافظ جهاز AI250، الذي سيتم إطلاقه بعد عام، على هذه البنية ولكنه يضيف بنية حسابية للذاكرة القريبة لتعزيز عرض النطاق الترددي الفعال للذاكرة بأكثر من 10 مرات. بالإضافة إلى ذلك، سيدعم النظام إمكانية الاستدلال المصنف التي تمكن من مشاركة موارد الحوسبة والذاكرة ديناميكيًا عبر البطاقات. تضعه شركة كوالكوم كحل أكثر كفاءة وعالي النطاق الترددي مُحسّن لنماذج المحولات الكبيرة، مع الحفاظ على نفس خصائص الحرارة والتبريد والأمان وقابلية التوسع مثل AI200.
قالت دورجا مالادي، نائب الرئيس الأول والمدير العام لتخطيط التكنولوجيا، مركز حلول الحافة والبيانات، شركة كوالكوم تكنولوجيز: “مع Qualcomm AI200 وAI250، فإننا نعيد تعريف ما هو ممكن لاستدلال الذكاء الاصطناعي على نطاق واسع”. “تعمل حلول البنية التحتية الجديدة والمبتكرة للذكاء الاصطناعي على تمكين العملاء من نشر الذكاء الاصطناعي المولد بتكلفة إجمالية للملكية غير مسبوقة، مع الحفاظ على المرونة والأمان الذي تتطلبه مراكز البيانات الحديثة.”
بالإضافة إلى بناء منصات الأجهزة، تقوم شركة كوالكوم أيضًا ببناء منصة برمجية شاملة ومُحسَّنة للاستدلال واسع النطاق. تم إعداد النظام الأساسي لدعم مجموعات أدوات التعلم الآلي والذكاء الاصطناعي الرئيسية – بما في ذلك PyTorch وONNX وvLLM وLangChain وCrewAI مع تمكين النشر السلس للنماذج. ستدعم حزمة البرامج الخدمة المفصلة والحوسبة السرية والإعداد بنقرة واحدة للنماذج المدربة مسبقًا لتبسيط النشر.
وقال ملادي: “إن مجموعة برامجنا الغنية ودعم النظام البيئي المفتوح يجعل من السهل أكثر من أي وقت مضى على المطورين والمؤسسات دمج وإدارة وتوسيع نطاق نماذج الذكاء الاصطناعي المدربة بالفعل في حلول استدلال الذكاء الاصطناعي المحسنة لدينا”. “من خلال التوافق السلس مع أطر عمل الذكاء الاصطناعي الرائدة ونشر النماذج بنقرة واحدة، تم تصميم Qualcomm AI200 وAI250 من أجل اعتماد سلس والابتكار السريع.”
احصل على أفضل أخبار Tom's Hardware والمراجعات المتعمقة، مباشرة إلى صندوق الوارد الخاص بك.
أحد الجوانب المهمة حول حلول AI200 وAI250 على نطاق الرف للاستدلال الذي لم تكشف عنه شركة كوالكوم هو المعالجات التي ستعمل عليها هذه الأجهزة. بدأت الشركة رسميًا في تطوير وحدات المعالجة المركزية الخاصة بها على مستوى مراكز البيانات في وقت سابق من هذا العام. في حين أنه من المحتمل أن يكون فريق Nuvia قد قام ببعض الأعمال الأساسية للبنية الدقيقة لوحدة المعالجة المركزية قبل ذلك، إلا أن الأمر سيستغرق حوالي عام لتحديد التصميم المنطقي وتطويره، ثم ستة أشهر على الأقل لتنفيذ التصميم وشريطه، ثم أشهر لإحضار الشريحة وأخذ عينات منها. باختصار، من المعقول توقع ظهور وحدات المعالجة المركزية الداخلية لشركة Qualcomm في أواخر عام 2027، بل في عام 2028. ومع ذلك، على الأقل، فإن AI200 على الأقل مستعد لاستخدام وحدة المعالجة المركزية Arm أو x86 الجاهزة للاستخدام، لذا فإن السؤال هو، أيهما؟
يتبع أجهزة توم على أخبار جوجل، أو أضفنا كمصدر مفضل، للحصول على آخر الأخبار والتحليلات والمراجعات في خلاصاتك.
التعليقات