
مرة أخرى، كان الذكاء الاصطناعي أحد أكبر البنود على جدول أعمال المنتدى الاقتصادي العالمي لعام 2026.
وفي هذا العام فقط، كانت اللهجة أكثر توتراً بشكل ملحوظ – فقد سأل رجال الأعمال والصحفيون قادة التكنولوجيا العميقة بفارغ الصبر عن أمن الذكاء الاصطناعي، والحوكمة، وضغوط البنية التحتية، وما إذا كانت “فقاعة الذكاء الاصطناعي” المروعة فقاعة حقًا، ومتى ستبدأ الاستثمارات في تحقيق عوائد اقتصادية. وبعبارة أخرى، فإن المخاطر لم تكن أعلى من أي وقت مضى.
نائب الرئيس للهندسة في شركة غير محتملة AI.
من بين العديد من قادة الذكاء الاصطناعي الذين تحدثوا في دافوس، كان الرئيس التنفيذي لشركة مايكروسوفت ساتيا ناديلا هو الأقرب إلى ضرب المسمار في رأسه. وحذر من أن الذكاء الاصطناعي لا يتجنب التحول إلى فقاعة إلا إذا حقق نتائج حقيقية وموزعة على نطاق واسع، بدلا من تركيز القيمة بين حفنة من الشركات والاقتصادات.
ويستمر الذكاء الاصطناعي غير الموثوق (وخاصة مسألة الهلوسة) في تعميق العجز في الثقة في الأعمال التجارية والذي يعيق التأثير الاقتصادي الإيجابي.
لماذا يبدأ نقاش الذكاء الاصطناعي اليوم في المكان الخطأ؟
يعكس قسم كبير من المحادثات في دافوس حقيقة مفادها أن أنظمة الذكاء الاصطناعي المهيمنة اليوم ــ نماذج اللغات الكبيرة ــ هي المكان الذي تتركز فيه القدرات والاهتمام والاستثمار حاليا.
ويتم بناء التنظيم وتخطيط البنية التحتية والنمذجة الاقتصادية حول هذا الواقع. ونتيجة لذلك، يتم التعامل مع الهلوسة على أنها خطر مؤسف ولكن لا مفر من الكشف عنه أو التخفيف منه.
LLMs هي أنظمة احتمالية، مما يعني أنها تولد مخرجات من خلال التنبؤ بما سيأتي بعد ذلك بناءً على الأنماط الإحصائية المستفادة من مجموعات البيانات الضخمة. هذا ما يجعلهم يتمتعون بالطلاقة اللغوية والمرونة، ولكنه أيضًا سبب الهلوسة.
عندما تنتج شهادة LLM إجابة مقنعة ولكنها خاطئة، فهذا لا يعد خطأً – بل هو نتيجة لكيفية تصميمها.
وفي دافوس، كثيراً ما نوقشت الهلوسة باعتبارها مشكلة تتعلق بالحوكمة أو السلامة، ولكنها متأصلة في النهج الاحتمالي ذاته.
هذا التمييز مهم، لأنه يحدد ما إذا كان سيتم التعامل مع الهلوسة كشيء يجب التغلب عليه، أو كإشارة إلى أنه قد تكون هناك حاجة إلى تصميمات أنظمة مختلفة لحالات استخدام معينة.
إذا تم التعامل مع الهلوسة على أنها أمر لا مفر منه، فإن الاستجابات الوحيدة المتاحة هي التحذيرات، وإخلاء المسؤولية، والإشراف البشري، وحواجز الحماية المتزايدة التعقيد.
ولهذا السبب ركز قسم كبير من محادثات دافوس على الإفصاح، ونقل المخاطر، والتنظيم ــ وكلها ضرورية، ولكن أياً منها غير قادر على تحويل الأنظمة غير الجديرة بالثقة إلى بنية تحتية يمكن الاعتماد عليها.
الجمع بين المرونة والموثوقية
إذن ما هو البديل؟ حقيقة أن النماذج الاحتمالية ليست هي الطريقة الوحيدة لبناء أنظمة الذكاء الاصطناعي. قبل وقت طويل من استحواذ الذكاء الاصطناعي على انتباه الجمهور، تم استخدام أنظمة التفكير الرمزي لتشفير المعرفة كقواعد وحقائق وقيود واضحة.
هذه الأنظمة لا تخمن. ونظرًا لنفس المدخلات، فإنهم ينتجون دائمًا نفس المخرجات.
يتفاعل معظم الناس مع الأنظمة الرمزية كل يوم دون التفكير في الأمر – وجداول البيانات هي مجرد مثال واحد. عندما يقوم جدول بيانات بحساب نتيجة ما، لا يقلق المستخدمون من أنها قد تهلوس بإجابة بديلة “تبدو صحيحة”. تريد الشركات وتحتاج إلى نفس الحتمية من الذكاء الاصطناعي.
الغالبية العظمى من البرامج المستخدمة اليوم هي أنظمة رمزية – فهي لا تستطيع التعامل مع معالجة اللغة الطبيعية بشكل جيد، وهو ما يتفوق فيه ماجستير إدارة الأعمال. لكن الاختيار بين العصبي والرمزي ليس ثنائيا.
واليوم، هناك فئة متنامية من الأنظمة الهجينة، المعروفة باسم الذكاء الاصطناعي الرمزي العصبي، تجمع عمدًا بين نقاط القوة في كلا النهجين.
تُستخدم الشبكات العصبية عندما تكون هناك حاجة إلى المرونة، كما هو الحال عند تفسير اللغة أو استخراج المعلومات من المستندات، بينما تطبق طبقات الاستدلال الرمزي قواعد وقيود ومنطق واضح لتحديد النتائج.
والأهم من ذلك، أن هذا يعني أن المخرجات لا تعتمد على المعقولية الإحصائية وحدها. يمكن للأنظمة الرمزية العصبية تتبع كيفية التوصل إلى نتيجة ما، وإنتاج نفس النتيجة لنفس المدخلات، والإشارة بوضوح عندما لا يمكن الإجابة على سؤال بثقة.
وفي البيئات التي يجب فيها شرح القرارات ومراجعتها والدفاع عنها، تكون هذه الخصائص ضرورية.
تكلفة فقدان البدائل
ولهذا التركيز الضيق عواقب حقيقية. إن القدر الأعظم من القلق الذي تم التعبير عنه في دافوس ينبع من التعامل مع القيود الحقيقية التي تفرضها برامج الماجستير في القانون ــ الأنظمة التي تقدم قدرات غير عادية ولكنها تواجه تحديات لا يمكن تجنبها من حيث الموثوقية.
وعندما تصبح هذه القيود واضحة، تتآكل الثقة، ويصبح الإشراف البشري إلزاميا، ويصبح تحقيق أي مكاسب في الإنتاجية أكثر صعوبة.
يمكن أن تجد العديد من المؤسسات أن المشاريع التجريبية تواجه صعوبة في التوسع، لا سيما عندما تثير الفرق القانونية وفرق الامتثال مخاوف بشأن المخرجات التي لا يمكن الدفاع عنها أو تدقيقها بشكل موثوق.
على الرغم من أن نتائج عائد الاستثمار متباينة عبر الصناعة، إلا أن التحدي المتكرر يتمثل في أن الأنظمة التي تقدم القدرات الأكثر إثارة للإعجاب لم يتم تصميمها أبدًا لتبرير قراراتها.
لقد كانت الشركات في دافوس محقة في التساؤل عن كيفية إدارة الذكاء الاصطناعي وتنظيمه ودمجه في الاقتصاد العالمي. تقدم الأنظمة العصبية الرمزية حلولاً طبيعية لمخاوف الأعمال المتعلقة بالاعتماد، حيث تمثل أنظمة LLM فقط مخاطر جديدة من خلال الموثوقية وقابلية التفسير.
لكن هذه الأسئلة لا يمكن الإجابة عليها بشكل هادف دون توسيع المحادثة حول ماهية الذكاء الاصطناعي في الواقع.
يفهم معظم الممارسين القيود المفروضة على LLMs ويناقشون بالفعل استراتيجيات التخفيف. ولكن هناك فرق بين تخفيف القيود المتأصلة واختيار البنى التي تتجنبها في حالات استخدام محددة.
والسؤال ليس ما إذا كان علينا أن نتخلى عن ماجستير إدارة الأعمال، ولكن ما إذا كنا نتخلف عن السداد بسهولة شديدة حتى عندما تشير متطلبات الموثوقية إلى نهج مختلف.
إذا كان للذكاء الاصطناعي أن يدعم الاقتصادات بدلاً من مجرد إثارة الإعجاب في العروض التوضيحية، فلا يمكن أن تكون الموثوقية فكرة لاحقة. يجب أن يصبح المعيار للتصميمات لتكون قابلة للتدقيق ومتوافقة وجديرة بالثقة منذ البداية.
لقد أثار دافوس 2026 بعض الأسئلة الملحة، والإجابات موجودة بالفعل في أساليب تجمع بين مرونة ماجستير العلوم والتفكير الحتمي.
لا يزال الكثير من النقاش يتعامل مع الهلوسة على أنها أمر لا مفر منه، بدلاً من الاعتراف بأنها متأصلة في الأنظمة الاحتمالية وأن البدائل موجودة لحالات الاستخدام حيث تكون الموثوقية أكثر أهمية.
الذكاء الاصطناعي الموثوق ليس شيئًا ننتظر اختراعه. إنه موجود بالفعل في شكل الذكاء الاصطناعي الرمزي العصبي. وإلى أن ينعكس هذا الواقع في الانتشار السائد، فإن الفجوة بين طموح دافوس وما يمكن أن تعتمد عليه المنظمات بأمان سوف تستمر في الاتساع.
لقد أبرزنا أفضل منشئ مواقع الويب بالذكاء الاصطناعي.
تم إنتاج هذه المقالة كجزء من قناة Expert Insights التابعة لـ TechRadarPro حيث نعرض أفضل وألمع العقول في صناعة التكنولوجيا اليوم. الآراء الواردة هنا هي آراء المؤلف وليست بالضرورة آراء TechRadarPro أو Future plc. إذا كنت مهتمًا بالمساهمة، اكتشف المزيد هنا: https://www.techradar.com/news/submit-your-story-to-techradar-pro

التعليقات