توفر أجهزة الكمبيوتر RTX AI من NVIDIA أداء الذكاء الاصطناعي على مستوى مركز البيانات لأجهزة الكمبيوتر المكتبية، مما يمنح المتحمسين والمبدعين والمطورين القدرة على تشغيل النماذج المتقدمة محليًا، بشكل أسرع، وبتحكم أكبر
لقد أصبح الذكاء الاصطناعي جزءًا من الحوسبة اليومية، من خلال برامج الدردشة السحابية والخدمات عبر الإنترنت، والآن مباشرة على أجهزة الكمبيوتر الشخصية. بدءًا من الأدوات الإبداعية ومساعدي الإنتاجية وحتى سير عمل المطورين والمشاريع البحثية، يرغب الأشخاص بشكل متزايد في تشغيل تطبيقات الذكاء الاصطناعي محليًا – على أجهزتهم الخاصة وبشروطهم الخاصة.
ومع تسارع هذا الاتجاه، يتحول التركيز من ما يمكن أن يفعله الذكاء الاصطناعي إلى المكان الذي يعمل فيه بشكل أفضل. بالنسبة للمستخدمين الذين يعطون الأولوية للأداء والخصوصية والتكلفة والمرونة، أصبحت الأجهزة الأساسية أكثر أهمية من أي وقت مضى. تستهلك نماذج الذكاء الاصطناعي الكثير من الموارد، ويتطلب تشغيلها بشكل جيد قوة حاسوبية كبيرة.
تم تصميم أجهزة الكمبيوتر الشخصية RTX AI من NVIDIA خصيصًا لأعباء العمل هذه. مدعومة بوحدات معالجة الرسومات NVIDIA GeForce RTX، توفر أجهزة الكمبيوتر هذه نفس التقنيات الأساسية المستخدمة في مراكز بيانات الذكاء الاصطناعي الرائدة إلى أجهزة الكمبيوتر المكتبية والمحمولة، مما يوفر الأداء ودعم البرامج والكفاءة المطلوبة لأحمال عمل الذكاء الاصطناعي الحديثة.
من يريد تشغيل الذكاء الاصطناعي على أجهزة الكمبيوتر الخاصة به اليوم؟
نظرًا لأن الذكاء الاصطناعي أصبح متجذرًا بشكل أعمق في سير العمل اليومي، فإن الاعتماد على الخدمات السحابية التي تعمل دائمًا يفسح المجال أمام تفضيل الذكاء الاصطناعي السريع والخاص والذي يمكن التحكم فيه والذي يعمل مباشرة على جهاز الكمبيوتر.
إن جمهور الذكاء الاصطناعي المحلي أوسع مما يدركه كثير من الناس، مع وجود ثلاث مجموعات متميزة تقود الطلب، كل منها لأسباب مختلفة.
يعد المستخدمون الذين يركزون على الإنتاجية مجموعة رئيسية تتجه إلى مساعدي الذكاء الاصطناعي. يريد هؤلاء الأفراد أدوات يمكنها تلخيص المستندات والبحث عبر الملفات المحلية وتوفير رؤى سياقية بناءً على بياناتهم الخاصة. بالنسبة لهؤلاء المستخدمين، يعد الذكاء الاصطناعي أداة لتبسيط المهام اليومية، وهذا يعني غالبًا الحفاظ على بياناتهم محلية.
مجموعة أخرى تتكون من المبدعين. يعتمد الفنانون والمصممون ومحررو الفيديو الذكاء الاصطناعي. تساعد أدوات مثل نماذج الانتشار في ComfyUI وتحرير الفيديو بمساعدة الذكاء الاصطناعي والتوليد ثلاثي الأبعاد على أتمتة المهام المتكررة وتسريع العملية الإبداعية وفتح أساليب جديدة – كل ذلك مع السماح للمستخدمين بالبقاء داخل التطبيقات المألوفة.
أما المجموعة الثالثة فتضم المطورين، بما في ذلك الطلاب والهواة والمهندسين المستقلين والباحثين. مع استمرار توسع قدرات الذكاء الاصطناعي، يحتاج المطورون إلى أجهزة تسمح لهم ببناء النماذج واختبارها وضبطها وتحسينها محليًا. يمكن أن يؤدي الاعتماد على الموارد السحابية أو تكبد تكاليف لكل استخدام إلى إعاقة التجريب وإبطاء الابتكار.
على الرغم من الاختلافات بينهما، تشترك المجموعات الثلاث في متطلب مشترك للأداء المحلي الموثوق دون الاعتماد على السحابة.
لماذا يتم تشغيل الذكاء الاصطناعي محليًا بدلاً من تشغيله على السحابة؟
من المؤكد أن الذكاء الاصطناعي القائم على السحابة يتمتع بمزاياه، ولكنه ليس دائمًا الحل الأفضل لكل موقف. يعالج تشغيل الذكاء الاصطناعي محليًا العديد من الاهتمامات العملية التي أصبحت ذات أهمية متزايدة مع انتقال الذكاء الاصطناعي من التجريب إلى الاستخدام اليومي.
الخصوصية هي واحدة من الدوافع الأكثر إلحاحا. تقوم النماذج السحابية عادةً بتسجيل المطالبات والمخرجات، وغالبًا ما تحتفظ بهذه البيانات للتحليل أو التدريب. بالنسبة للمستخدمين الذين يعملون مع الملفات الحساسة أو البيانات الشخصية أو المشاريع الخاصة، فإن استخدام الذكاء الاصطناعي محليًا على أجهزة الكمبيوتر الخاصة بهم يوفر راحة البال.
السياق هو قيد آخر للذكاء الاصطناعي السحابي. النماذج التي تفتقر إلى الوصول إلى الملفات المحلية للمستخدم أو مجموعات البيانات أو هياكل المشروع قد تنتج استجابات عامة أو حتى غير صحيحة. في المقابل، يمكن للنماذج المحلية العمل مباشرة مع المجلدات وقواعد التعليمات البرمجية والمستندات، مما يؤدي إلى الحصول على إجابات أكثر دقة وملاءمة.
تصبح التكلفة أيضًا عاملاً مهمًا في نطاق استخدام الذكاء الاصطناعي. تعتمد العديد من مسارات العمل الإبداعية والتطويرية على التكرار المستمر – تجديد الصور، أو تحسين المطالبات، أو تشغيل تمريرات الاستدلال المتكررة أو اختبار الاختلافات في النماذج. يمكن أن تتراكم رسوم استخدام السحابة بسرعة في هذه السيناريوهات، في حين أن تشغيل الذكاء الاصطناعي محليًا يسمح للمستخدمين بالتكرار بحرية دون تكبد تكاليف لكل طلب أو مواجهة حدود للاستخدام.
أصبحت السيطرة والأمن أمرًا بالغ الأهمية أيضًا، حيث أصبح عملاء الذكاء الاصطناعي أكثر قدرة. يمكن لأدوات الذكاء الاصطناعي الجديدة اتخاذ إجراءات داخل نظام المستخدم، مثل تعديل الملفات أو تشغيل البرامج النصية أو أتمتة سير العمل. يفضل العديد من المستخدمين الاحتفاظ بهذا المستوى من الاستقلالية محليًا، مما يسمح لهم بالحفاظ على التحكم الكامل.
والمقايضة بالطبع هي أن نماذج الذكاء الاصطناعي الحديثة تتطلب الكثير من المتطلبات. فهي تتطلب قوة حوسبة كبيرة، واستخدامًا فعالاً للذاكرة، وأجهزة يمكنها مواكبة الأنظمة البيئية البرمجية سريعة التطور.
ما الذي يجعل RTX مختلفًا؟
يوجد في قلب وحدات معالجة الرسوميات RTX أنوية Tensor Cores مخصصة، والمصممة خصيصًا لتسريع أعباء عمل الذكاء الاصطناعي. على عكس وحدات المعالجة المركزية أو أجهزة الرسومات ذات الأغراض العامة، تم تحسين Tensor Cores لعمليات المصفوفة التي تدعم الذكاء الاصطناعي الحديث.
ومن الناحية العملية، يعني هذا أداءً أسرع بشكل كبير لمهام مثل إنشاء الصور وتحسين الفيديو واستدلال نماذج اللغة الكبيرة (LLM). يمكن لأحمال العمل التي قد تستغرق عدة دقائق أو تكون غير عملية على أنظمة وحدة المعالجة المركزية (CPU) فقط، أن تعمل بكفاءة على وحدات معالجة الرسومات RTX.
هذه الميزة واضحة بشكل خاص في الذكاء الاصطناعي البصري. على سبيل المثال، يمكن أن يستغرق إنشاء مقطع فيديو على وحدة معالجة الرسومات RTX بضع دقائق فقط، في حين أن المهام المماثلة على الأنظمة الأساسية غير المسرَّعة يمكن أن تكون أبطأ بخمس إلى عشر مرات اعتمادًا على حجم العمل والتكوين. تدعم وحدات معالجة الرسومات RTX أيضًا تنسيقات الدقة المتقدمة مثل FP4، مما يساعد على تقليل متطلبات الذاكرة مع زيادة الإنتاجية لاستدلال الذكاء الاصطناعي.
ميزة النظام البيئي لبرمجيات الذكاء الاصطناعي
أداء الأجهزة لا يعني شيئًا إذا كان البرنامج لا يدعمه. يتحرك الذكاء الاصطناعي بسرعة، ويعد الوصول إلى أحدث الأدوات والأطر أمرًا ضروريًا.
كما يعمل نظام CUDA البيئي نفسه الذي يدعم تطوير الذكاء الاصطناعي في السحابة على تمكين هذه التجارب على أجهزة الكمبيوتر الشخصية RTX AI. ونتيجة لذلك، عادةً ما تصل النماذج والتحسينات الجديدة أولاً إلى منصات NVIDIA وغالبًا ما يتم ضبطها بالفعل بواسطة المجتمع.
تم تحسين الأدوات الشائعة مثل Ollama وLlama.cpp لـ LLMs وComfyUI وPyTorch لنماذج النشر وUnsloth للضبط الدقيق لوحدات معالجة الرسومات RTX، حيث تعمل NVIDIA مباشرة مع هؤلاء الشركاء لضمان تشغيل برامجهم بكفاءة على أجهزة RTX.
تعمل NVIDIA أيضًا بشكل مباشر مع Microsoft لتسريع الذكاء الاصطناعي الأصلي من خلال Windows ML، وذلك باستخدام موفر تنفيذ TensorRT من NVIDIA لتقديم استدلال سلس وعالي الأداء عبر جميع التطبيقات المدعومة.
بالنسبة للمطورين والمتحمسين على حد سواء، تعني هذه الشراكات قضاء وقت أقل في مشكلات التوافق والمزيد من الوقت لتجربة أحدث الموديلات.
استخدام أكثر ذكاءً لـ VRAM للنماذج الأكبر حجمًا
مع نمو النماذج من حيث الحجم والقدرات، يمكن أن تصبح الذاكرة عاملاً مقيدًا. يمكن أن يؤدي تشغيل النماذج المتقدمة محليًا إلى استهلاك كل ذاكرة VRAM المتوفرة بسرعة. ومع ذلك، كانت NVIDIA في الطليعة في دعم التنسيقات منخفضة الدقة مثل FP8 وFP4. يمكن لهذه التنسيقات تقليل استهلاك VRAM بنسبة 50 و70 بالمائة تقريبًا، على التوالي، دون المساس بشكل كبير بالدقة بالنسبة للعديد من أعباء عمل الاستدلال. عند دمجها مع تقنيات تحسين الذاكرة الأخرى، فإن هذا يجعل من الممكن تشغيل أحدث النماذج محليًا على أجهزة من فئة المستهلك.
بالنسبة للمبدعين والمطورين، يعني هذا مزيدًا من المرونة، مما يتيح استخدام نماذج أكبر ودقة أعلى وسير عمل أكثر تعقيدًا دون الحاجة إلى أنظمة من فئة محطات العمل.
تسريع الذكاء الاصطناعي في التطبيقات اليومية
مع نمو النماذج من حيث الحجم والقدرات، يمكن أن تصبح الذاكرة عاملاً مقيدًا. يمكن أن يؤدي تشغيل النماذج المتقدمة محليًا إلى استهلاك كل ذاكرة VRAM المتوفرة بسرعة. ومع ذلك، كانت NVIDIA في الطليعة في دعم التنسيقات منخفضة الدقة مثل FP8 وFP4. يمكن لهذه التنسيقات تقليل استهلاك VRAM بنسبة 50 و70 بالمائة تقريبًا، على التوالي، دون المساس بشكل كبير بالدقة بالنسبة للعديد من أعباء عمل الاستدلال. عند دمجه مع تقنيات تحسين الذاكرة الأخرى، فإنه يجعل من الممكن تشغيل أحدث النماذج محليًا على أجهزة من فئة المستهلك.
بالنسبة للمبدعين والمطورين، يعني هذا المزيد من المرونة، مما يتيح استخدام نماذج أكبر ودقة أعلى وسير عمل أكثر تعقيدًا دون الحاجة إلى أنظمة من فئة محطات العمل.
ميزة الكمبيوتر الشخصي NVIDIA RTX AI
مع تحول الذكاء الاصطناعي إلى مجرد أداة مساعدة، أصبح مكان تشغيله مهمًا. لن يذهب الذكاء الاصطناعي السحابي إلى أي مكان، لكن الافتراض القائل بأن كل ما يحتاجه الذكاء الاصطناعي للعيش في مراكز بيانات بعيدة قد انهار. بالنسبة لأي شخص يهتم بالخصوصية، أو يريد تكرارًا غير محدود، أو يحتاج إلى ذكاء اصطناعي يفهم سياقه المحلي، فإن تشغيل النماذج على الأجهزة المحلية أمر منطقي.
أجهزة الكمبيوتر RTX AI هي إجابة NVIDIA لهذا التحول: أجهزة استهلاكية تتمتع بقدرة كافية لتشغيل أعباء عمل الذكاء الاصطناعي الخطيرة محليًا، مدعومة بالنظام البيئي للبرامج الذي يجعلها عملية. سواء كنت مصممًا يقوم بأتمتة المهام المتكررة، أو مطورًا يختبر نماذج مختلفة، أو شخصًا يريد فقط الذكاء الاصطناعي الذي يحترم خصوصيتك، فإن الجاذبية واضحة.
لقد وصل عصر أجهزة الكمبيوتر الشخصية ذات الذكاء الاصطناعي. والسؤال هو ما إذا كان جهازك جاهزًا لذلك.

التعليقات