
توقعات الصناعة تدق ناقوس الخطر. سيتعين استثمار مئات المليارات من الدولارات في مراكز بيانات جديدة في السنوات المقبلة لمواكبة الاحتياجات الحسابية النهمة للذكاء الاصطناعي.
وتتوقع شركة بين آند كومباني أن يصل هذا الإنفاق السنوي إلى 500 مليار دولار سنويا بحلول عام 2030. ويجري الآن إنشاء مشاريع مثل مبادرة سوفت بانك، وأوبن إيه آي، ومبادرة ستارجيت التي تقودها أوراكل لتلبية هذا الطلب.
يستمر المقال أدناه
الرئيس التنفيذي والمؤسس المشارك لشركة Pathway.
المزيد من الحساب. المزيد من الطبقات. المزيد من البيانات. وهذا هو المنطق الذي نراه ونسمعه اليوم. وهذا يضعنا على مسار غير مستدام، مما يخلق تحديًا لم يعد مصدر قلق الغد. إن أزمة طاقة الذكاء الاصطناعي هي أمر حتمي على المدى القريب إذا بقينا حبيسين المسار الذي رسمته الحكمة السائدة المتمثلة في النطاق التصاعدي.
إن التمسك بهذا المسار يتجاهل أيضًا حقيقة قاسية: وهي أن الطلب غير المستدام متأصل في اقتصاديات الوحدة الخاصة ببرامج الماجستير في القانون اليوم، وبشكل أكثر تحديدًا، في بنية المحولات التي تأتي مع استهلاك مرتفع للطاقة يتم دمجه في التدريب والاستدلال.
إن ظهور نماذج الاستدلال، التي تنتج المزيد من الرموز في نص “التفكير” المخفي قبل تقديم الإجابات، يزيد من المشكلة. وجدت دراسة أجريت عام 2025 أنه في حين أن الموجه الطويل إلى GPT-4o يستهلك 0.42 واط ساعة، فإن الموجه الطويل لنماذج الاستدلال يمكن أن يستهلك ما يصل إلى 33.634 واط ساعة (DeepSeek-R1) و30.495 واط ساعة (GPT-4.5). وهذه طاقة كافية لشحن هاتف ذكي، ثم بعضًا منه، في كل مرة.
يؤدي استخدام الرمز المميز وتكلفة حساب الاستدلال باعتبارهما الوسيلة الوحيدة لتحسين النماذج إلى إنشاء علامة استفهام ضخمة حول الجدوى الاقتصادية الحالية لسوق أدوات الذكاء الاصطناعي. نحن بحاجة إلى تغيير جذري في النموذج من أجل تصحيح المسار. إن هذا التحول جارٍ بالفعل، ويبدأ بترك المحول خلفنا. مرحبًا بكم في عصر ما بعد المحولات.
عواقب سلسلة التفكير المنطق
إن الاعتماد المتزايد على LLMs وحده لا يفسر متطلبات الحوسبة والطاقة الجامحة لشركات الذكاء الاصطناعي. إنه أيضًا نتيجة لحقيقة أن LLMs تستهلك المزيد والمزيد من الرموز المميزة بمرور الوقت.
أنتج الجيل الأول من LLMs بضع مئات من الرموز المميزة لكل استجابة. وبالمقارنة، فإن نماذج “الاستدلال” الحالية تحرق الآلاف من رموز التفكير لرسم منطق خطوة بخطوة في تحفيز سلسلة الأفكار.
ولكن المنطق جاء كفكرة لاحقة للبنية الأساسية التي ظلت على حالها منذ البداية – المحولات. النماذج القائمة على المحولات كثيفة الاستخدام للموارد بشكل لا يصدق.
إنهم يستخدمون كميات هائلة من الحوسبة أثناء معالجة المعلومات بطريقة تنمو بسرعة مع زيادة البيانات، ويحتاجون إلى ذاكرة سريعة جدًا للتشغيل والضبط المستمر وحساب معلمات النموذج.
وبطبيعة الحال، أدى التمسك بالمحول دون بذل جهود هادفة لإدخال آليات للتفكير الفعال إلى دفع متطلبات الحوسبة والطاقة لطلاب ماجستير إدارة الأعمال إلى الأعلى بشكل كبير. هل أدت هذه المقايضة إلى نماذج أكثر ذكاءً؟
الإجماع المتزايد هو لا. تشير كل الدلائل إلى أن النماذج الحالية المعتمدة على المحولات قد وصلت إلى الحد الأقصى من حيث الأداء الوظيفي، مع انخفاض العائدات على الرغم من تزايد حجم النموذج باستمرار. ويُعد GPT-5، الذي كان مخيبًا للآمال عند الإطلاق على الرغم من أن تدريبه استغرق أكثر من عامين، هو المثال الرئيسي.
لقد أثارت عمليات الإطلاق الأخيرة من المعامل الرائدة اليوم الإثارة، ولكن لم يحدث أي منها التحول المعماري الذي تحتاجه الصناعة ولا تغييرًا حقيقيًا في الأداء الوظيفي. وبعيدًا عن سباق التوسع، تتزايد البدائل الحقيقية.
أخذ الإشارات من النظم البيولوجية
تكمن الإجابة في التصميم الأكثر أناقة في الطبيعة: الدماغ البشري. يعد الدماغ البشري مثالًا ساطعًا لنظام طبيعي يمكنه تحقيق إنجازات معرفية متقدمة بكفاءة ملحوظة في استخدام الطاقة. مستوحاة من هذا، تعمل شركات الذكاء الاصطناعي الجديدة والمنافسة على تكرار كيفية معالجة البشر للمعلومات في بنية جديدة لماجستير القانون لسد فجوة الكفاءة والتعلم التي تفصل الذكاء الاصطناعي اليوم عن النموذج الحسابي للدماغ.
يعمل الدماغ من خلال أقل من 100 مليار خلية عصبية تعمل كوحدات حسابية، مرتبطة بمئات تريليونات من المشابك العصبية التي تخزن المعلومات وتحولها. يختلف عدد اتصالات المشبك العصبي في كل خلية عصبية. يعمل بعضها كمحاور مركزية ذات اتصالات لا تعد ولا تحصى، والبعض الآخر لديه اتصالات أقل بكثير.
تظل هذه الديناميكية صحيحة حتى مع نمو الدماغ وتغيره، مما يجعل الدماغ شبكة مثالية خالية من القياس. ومن اللافت للنظر أن الدماغ يستخدم 20 واط فقط من الطاقة لتشغيل هذه الشبكة من الخلايا العصبية. وهذا يعادل قوة مصباح كهربائي خافت وقطرة في المحيط مقارنة بمتطلبات الطاقة الهائلة التي تتطلبها برامج LLM الرئيسية اليوم.
في عام 2025، أطلقنا بنية Dragon Hatchling (BDH) لسد الفجوة بين نماذج الذكاء الاصطناعي والدماغ من خلال تكرار ديناميكيات المشابك العصبية في ماجستير إدارة الأعمال. عندما تعتمد النماذج القائمة على المحولات على أوزان ثابتة مدربة مسبقًا (نفس قاعدة المعرفة الثابتة في كل مرة) للتنبؤ بالمخرجات، فإن BDH يعمل بشكل مختلف.
يتم تنشيط الخلايا العصبية الاصطناعية ذات الصلة بالمهمة قيد التنفيذ فقط، وتتقوى اتصالاتها أو تضعف بناءً على الخبرة المكتسبة من نشر المؤسسة. هذا هو التعلم الهيبي عمليًا: “الخلايا العصبية التي تنطلق معًا، وتترابط معًا”، ممزوجة باللدونة المتشابكة، تمامًا كما هو الحال في أدمغتنا. والنتيجة هي نموذج يبني الذكاء من خلال الاستخدام، وليس فقط من خلال التدريب، ولكن من خلال التفاعلات المحلية.
إنه يتمتع ببنية مدمجة وفعالة تشبه الشبكة، مما يحافظ على المعرفة بالضبط في المكان الذي تتم معالجتها فيه، ويتيح التعلم المستمر دون دورات إعادة التدريب المنتظمة التي تعتمد عليها النماذج القائمة على المحولات.
يعد هذا نهجًا بديلاً تشتد الحاجة إليه لتحسين تفكير LLM دون الحاجة إلى حرق الرموز المميزة. يمكن للمؤسسات أن تفعل الكثير باستخدام LLMs قبل الوصول إلى حدود الرمز المميز حيث لا يتعين تشغيل النماذج بأكملها في كل مرة يتم وضعها قيد الاستخدام، فقط اتصالات الخلايا العصبية ذات الصلة والمطلوبة للمهمة التي بين أيديها.
وأخيرًا، أصبح لدى شركات الذكاء الاصطناعي حل لتحسين قدرات التفكير النموذجي والتوقف عن استهلاك الطاقة المتصاعد للمحولات غير المستدامة. والأهم من ذلك، أن BDH متوافق مع الأجهزة ذات الأغراض العامة التي جعلت ازدهار LLM ممكنًا.
إن إعادة التفكير في الهندسة المعمارية هي الطريقة الوحيدة لمعالجة الأسباب الجذرية
إن أزمة طاقة الذكاء الاصطناعي هي سيناريو قاتم ولكنه ليس حتميًا. بل هو سيناريو يعتمد على اختيارات معمارية يمكن التراجع عنها. لقد غير المحول العالم. وقد نجحت القدرات الاستدلالية التي تمت إضافتها إلى LLMs في السنوات الأخيرة في تحسين وظائف النموذج.
لكن اقتصاديات الوحدة الأساسية ليست قابلة للحياة. تقدم الطبيعة بالفعل حلاً لمشكلة الذكاء الفعال والتكيفي، وتكمن روح عصر ما بعد المحولات في أخذ الدروس الصحيحة من ذلك. يمكننا بناء أنظمة ذكاء اصطناعي تصبح أكثر ذكاءً من خلال الاستخدام، بطريقة مستدامة لا تعتمد على نطاق تصاعدي لا نهائي.
بالنسبة للشركات، هذه ليست مجرد قصة بيئية – إنها قصة اقتصادية. نحن نتطلع إلى خفض تكاليف الاستدلال بمقدار 10 أضعاف أو أكثر. إن الذكاء الاصطناعي الذي يفكر بكفاءة ويتعلم باستمرار ويتطلب جزءًا صغيرًا من الحوسبة ليس طموحًا مستقبليًا. هذا ما تقدمه هندسة ما بعد المحولات اليوم.
لقد أبرزنا أفضل نماذج اللغات الكبيرة (LLMs) للبرمجة.

التعليقات