
يمكن أن تكون هلوسة الذكاء الاصطناعي محبطة. إذا كنت قد استخدمت شهادة LLM، فمن المؤكد أنك رأيت أنها تقدم إجابة كانت إما خاطئة تمامًا أو مخطئة تمامًا.
المؤسس المشارك والرئيس التنفيذي والرئيس التنفيذي للابتكار في Zappi.
ولكن عندما طلبت من النموذج تقييم آراء عملائنا، خلص بثقة إلى أن أدائنا كان ضعيفًا بسبب الإخفاقات في “أنظمة هيكل الكهرباء لدينا”. للوهلة الأولى – “هاه؟!” ولكن أصبح من الواضح أن النموذج قد دمجنا مع شركة غير ذات صلة تشاركنا اسمنا وتصنع شواحن السيارات الكهربائية.
ينظر معظم الناس إلى الهلوسة على أنها مجرد أخطاء مزعجة – ولكن الحقيقة هي أن الهلوسة هي منتجات ثانوية لكيفية تدريب نماذج LLM وما تم تحسينهم للقيام به. إذا كنت تتوقع أن تكون أدوات الذكاء الاصطناعي مثالية، فأنت تتوقع الشيء الخطأ.
لقد قدمت سياقًا أكثر وضوحًا، وأنتج النموذج نتائج دقيقة، وتمكنت من الحصول على المعلومات التي أردتها.
لماذا تحدث الهلوسة
فلماذا تحدث الهلوسة بالضبط؟ تظهر ورقة بحثية حديثة من OpenAI أن الهلوسة تحدث بسبب مكافأة العارضات على تقديم إجابة، وليس على قول “لا أعرف”.
إن LLM ليس حتميًا أبدًا؛ انها دائما احتمالية.
أوضحت OpenAI أنه خلال مرحلة ما قبل التدريب، تتعلم نماذج الذكاء الاصطناعي من خلال استيعاب كميات هائلة من البيانات من الإنترنت. في هذه المرحلة الأولية، تقوم هذه النماذج بعمل جيد في الإشارة إلى مدى ثقتها في الإجابات التي تقدمها. يمكنهم أيضًا الإشارة إلى عدم اليقين بشكل معقول، قائلين: “هذه إجابة محتملة، لكنني غير متأكد”.
ومع ذلك، عندما يتعلق الأمر بمرحلة ما بعد التدريب، يتم تحسين النماذج من خلال التعلم المعزز الذي يكافئ الدقة… دون معاقبة عدم الدقة. تمامًا مثل اختبار الاختيار من متعدد، يتم تدريب LLM على تقديم إجابة حتى لو كانت تخمينًا. كما هو الحال مع البشر، غالبًا ما يكون من الأفضل للنظام أن يملأ شيئًا ما، بدلاً من ترك السؤال فارغًا.
LLMs: خطأ من حيث التصميم
حتى ظهور الذكاء الاصطناعي، كنا نعيش في عالم حتمي إلى حد كبير. استخدمنا الأدوات التي قدمت إجابة واحدة محددة، مع مساحة صغيرة للتفسير. على سبيل المثال، إذا أدخلنا مسألة رياضية على الآلة الحاسبة، فسنحصل على إجابة.
إذا استفسرنا عن قاعدة بيانات لمستند ما، فستوفرها. يمكننا الوثوق بهذه الأدوات لإرجاع نتيجة يمكن التنبؤ بها.
LLMs ليست هي نفسها. تم تصميم الذكاء الاصطناعي لتقليد كيفية عمل الدماغ البشري، والبشر غير كاملين؛ فهم يخطئون طوال الوقت. لذا، إذا كنا نتوقع أن الحاصلين على ماجستير إدارة الأعمال (LLM) سوف يقومون بالأمور بشكل صحيح بنسبة 100% من الوقت، فإننا نسيء فهم كيفية عمل ماجستير إدارة الأعمال (LLM) في المقام الأول.
إن LLMs عبارة عن نظام احتمالي ينتج الإجابة الأكثر ترجيحًا، وليس الحقائق المضمونة – مما يعني أنها يمكن أن تكون مخطئة تمامًا بنفس الطريقة التي يمكن أن يكون بها البشر (أو على الأقل يتهمني العديد من زملائي بذلك!). خلاصة القول: إن الحصول على ماجستير في القانون الذي لا يهلوس أبدًا هو ببساطة غير ممكن.
إن المطالبة بالكمال والدقة من النظام هو عيب بشري.
كيفية الحد من الهلوسة
عندما يتعلق الأمر بالحد من هلوسة الذكاء الاصطناعي، فإن معرفة أنها ميزة وليست خطأً هو نصف المعركة. يبدأ الأمر بإعادة ضبط التوقعات – إدراك أن الأخطاء متأصلة وليست عيبًا قاتلًا. والخبر السار هو أن مطوري النماذج مثل OpenAI يعملون أيضًا على تقليل معدل حدوث الهلوسة.
وفي هذه الأثناء، ما الذي يمكن للشركات والفرق فعله حيالهم؟ فيما يلي ثلاث نصائح عملية يجب وضعها في الاعتبار:
1. لا يمكنك الاعتماد على النموذج وحده للحصول على الحقائق. كما ذكرت، LLMs ليست حتمية. تحتاج الشركات إلى التخطيط للأخطاء من خلال مراجعة المعلومات التي تم إرجاعها بعناية والتحقق مرة أخرى من المصادر التي تسحب منها LLM.
حتى لو طلبت من LLM الإجابة فقط إذا كانت متأكدة بنسبة 100%، فمن غير المرجح غالبًا أن تقول “لا أعرف الإجابة”. لذا، مثلما تقوم بمراجعة عمل زميلك بعناية، فإنك تحتاج إلى مراقبة درجات الماجستير في القانون للتأكد من دقتها أيضًا.
2. قم بتغذية النموذج بمعلومات موثوقة ومتصلة. ما تقدمه لنظام الذكاء الاصطناعي مهم بقدر ما تطلبه منه. كلما قمت بترسيخ النموذج في مصادر موثوقة ومتصلة – مثل الأبحاث التي تم التحقق من صحتها، والتقارير الداخلية، والقرارات الموثقة، والمعرفة المؤسسية المشتركة – أصبحت مخرجاته أكثر فائدة وموثوقية. عندما تكون البيانات مجزأة أو غامضة، يقوم النموذج بسد الفجوات. ولكن مع وجود مدخلات واضحة وحديثة ومتصلة، يستطيع الذكاء الاصطناعي التفكير ضمن قيود حقيقية بدلاً من التخمين.
3. استخدم المطالبات المنسقة بعناية. كلما كانت المطالبة عامة، كانت الاستجابة أكثر عمومية. يمكنك التحكم في النتيجة بشكل أفضل من خلال توفير السياق ذي الصلة والمواد المصدرية، ثم طرح سؤال محدد. ويصبح السؤال بعد ذلك هو “أجب عن هذا السؤال باستخدام البيانات التي قدمتها فقط، ثم اذكر مصدر هذه المعلومات”.
هذا يمكن أن يقلل بشكل كبير من الهلوسة. يمكنك أيضًا أن تطلب من النموذج أن يكون أكثر دقة من خلال قول “إذا لم تكن متأكدًا بنسبة 100% من الإجابة، فقل أنك لا تعرف. الدقة مهمة جدًا هنا.”
الذكاء الاصطناعي كنظام، وليس كصندوق سحري
يعد الذكاء الاصطناعي أداة قوية سنستمر في دمجها في حياتنا العملية اليومية وخارجها. ومع ذلك، يجب علينا أن ندرك أن الذكاء الاصطناعي ليس صندوقًا سحريًا. إنه نظام غير مثالي يعكس التدريب والأفكار التي تم تقديمها له.
فقط عندما نتوقف عن توقع الكمال من الذكاء الاصطناعي، يمكننا استخدامه بالطريقة التي يعمل بها بشكل أفضل – جنبًا إلى جنب معنا – لتقديم قيمة أعمال حقيقية.
لقد عرضنا أفضل روبوت محادثة يعمل بالذكاء الاصطناعي للأعمال.
تم إنتاج هذه المقالة كجزء من قناة Expert Insights التابعة لـ TechRadarPro حيث نعرض أفضل وألمع العقول في صناعة التكنولوجيا اليوم. الآراء الواردة هنا هي آراء المؤلف وليست بالضرورة آراء TechRadarPro أو Future plc. إذا كنت مهتمًا بالمساهمة، اكتشف المزيد هنا: https://www.techradar.com/news/submit-your-story-to-techradar-pro

التعليقات