أعلنت Nvidia عن BlueField-4 STX في GTC 2026 في 16 مارس، وهي بنية مرجعية معيارية للتخزين المتسارع مصممة لمعالجة اختناق الوصول إلى البيانات الذي يحد من استدلال الذكاء الاصطناعي الوكيل.
تم تصميم النظام حول وحدة BlueField-4 DPU وConnectX-9 SuperNIC الجديدة المحسّنة للتخزين، ويستهدف النظام قلة استخدام وحدة معالجة الرسومات التي تحدث عندما يتجاوز وكلاء الذكاء الاصطناعي الذين يعملون عبر جلسات ممتدة ويوسعون نوافذ السياق إنتاجية مسارات التخزين التقليدية. تقول Nvidia إن STX توفر ما يصل إلى خمسة أضعاف إنتاجية الرمز المميز وأربعة أضعاف كفاءة الطاقة وضعف سرعة استيعاب الصفحة مقارنة ببنيات التخزين التقليدية المعتمدة على وحدة المعالجة المركزية.
المشكلة المحددة التي تستهدفها Nvidia باستخدام STX هي إدارة ذاكرة التخزين المؤقت KV. أثناء استدلال المحولات، تحسب آلية الانتباه أزواج KV لكل رمز مميز في السياق، والتي يجب تخزينها واسترجاعها لكل خطوة توليد لاحقة. لكن نوافذ السياق هذه تنمو لتصل إلى مئات الآلاف من الرموز المميزة، مما يعني أن ذاكرة التخزين المؤقت KV تتفوق على سعة GPU HBM. الإجراء الاحتياطي المعتاد هو إلغاء التحميل إلى وحدة تخزين DRAM أو NVMe المضيفة، ولكن كلا المسارين يمران عبر وحدة المعالجة المركزية، مما يضيف زمن الوصول الذي يتراكم مع طول السياق ويوقف تنفيذ وحدة معالجة الرسومات أثناء نقل البيانات.
يستمر المقال أدناه
تتجاوز تقنية STX وحدة المعالجة المركزية المضيفة عن طريق توجيه البيانات عبر طبقة تخزين مخصصة ومتسارعة عبر RDMA عبر Spectrum-X Ethernet. يقوم BlueField-4 بإدارة محركات أقراص NVMe SSD مباشرة ويتعامل مع تكامل البيانات وتشفيرها لذاكرة التخزين المؤقت KV، مع الحفاظ على الوصول إلى السياق في معالج التخزين بدلاً من عبور المضيف. تعمل المجموعة الكاملة على منصة Vera Rubin وتدمج وحدة المعالجة المركزية Vera – التي تم الإعلان عنها أيضًا في GTC في 16 مارس – جنبًا إلى جنب مع ConnectX-9 وSpectrum-X Ethernet وبرنامج DOCA وبرنامج AI Enterprise. أول تطبيق على نطاق الحامل مبني على STX هو منصة تخزين ذاكرة السياق Nvidia CMX.
يشمل بائعو أنظمة التصميم المشترك للتخزين والبنية التحتية المستندة إلى STX كلاً من DDN وDell Technologies وHPE وIBM وNetApp وVAST Data، جنبًا إلى جنب مع شركاء التصنيع AIC وSupermicro وQuanta Cloud Technology. وفي الوقت نفسه، التزم ثمانية من موفري الخدمات السحابية والذكاء الاصطناعي – بما في ذلك CoreWeave وLambda وMistral AI وOracle Cloud Infrastructure – بالاعتماد المبكر لتخزين ذاكرة السياق. ومن المتوقع أن تكون المنصات القائمة على STX من الشركاء في النصف الثاني من عام 2026.
وقال جنسن هوانغ، المؤسس والرئيس التنفيذي لشركة Nvidia، في GTC: “إن برنامج Agent AI يعيد تعريف ما يمكن أن تفعله البرامج – ويجب إعادة اختراع البنية التحتية للحوسبة التي تقف خلفه لمواكبة ذلك”. “تتطلب أنظمة الذكاء الاصطناعي التي تفكر عبر سياق ضخم وتتعلم باستمرار فئة جديدة من وحدات التخزين.”
يتبع أجهزة توم على أخبار جوجل، أو أضفنا كمصدر مفضل، للحصول على آخر الأخبار والتحليلات والمراجعات في خلاصاتك.
احصل على أفضل أخبار Tom's Hardware والمراجعات المتعمقة، مباشرة إلى صندوق الوارد الخاص بك.
التعليقات