انتقل إلى X أو LinkedIn لمدة خمس دقائق وستجد الكثير من الأشخاص يتحدثون عما يمكن أن يفعله الذكاء الاصطناعي يفعل. يمكنه تلخيص ملاحظات الاجتماع، أو كتابة التعليمات البرمجية، أو تحويل صورتك إلى صورة كاريكاتورية، أو إضفاء طابع أكثر حزماً على رسائل البريد الإلكتروني الخاصة بك. هذه مجرد أمثلة قليلة رأيتها في منشورات LinkedIn في وقت سابق اليوم.
ولكن بالنسبة لجميع الأشياء الذكاء الاصطناعي يستطيع القيام به، لا يزال هناك الكثير منه لا أستطيع. في الواقع، بعض القيود تعوق أدوات الذكاء الاصطناعي الأكثر شيوعًا مرارًا وتكرارًا. أنا لا أتعمق في التكنولوجيا هنا (أفعل ذلك أحيانًا، لكن هذا ليس ما هو عليه الأمر). أعتقد أنه من الجيد التحدث عما لا يستطيع الذكاء الاصطناعي فعله حتى نكون واضحين بشأن حدوده.
عندما يكون الأشخاص جديدًا على أدوات الذكاء الاصطناعي، أو منبهرين بالضجيج، يمكنهم بسهولة إساءة تفسير ماهية هذه الأنظمة فعليًا وما هي قادرة عليه. وبهذه الطريقة ننتهي بتقارير مليئة بالإحصائيات المختلقة. وبطبيعة الحال، تتمتع أدوات الذكاء الاصطناعي المختلفة بنقاط قوة مختلفة. ولكن إليك بعض الأشياء الشائعة التي قد تواجه أداة الذكاء الاصطناعي المفضلة لديك صعوبة في حلها في عام 2026، والأهم من ذلك، سبب استمرار هذه الصعوبات.
1. اعترف بأنه لا يعرف شيئًا ما
هذا هو الأمر الأكثر أهمية – يمكن لأدوات الذكاء الاصطناعي أن تسبب الهلوسة، وهو مصطلح الصناعة الذي يشير إلى الوقت الذي تختلق فيه الأشياء.
ما هو مهم أن نفهمه هو أن هذا ليس خطأ سيتم إصلاحه في التحديث المستقبلي. بدلاً من ذلك، فهو جوهر كيفية عمل الكثير من LLMs (نماذج اللغات الكبيرة)، مثل ChatGPT وClaude.
وعلى الرغم مما قد يبدو عليه الأمر، إلا أنهم لا يستعيدون الحقائق من مخزن كبير من المعلومات. وبدلاً من ذلك، فإنهم يتنبأون بالكلمة التالية بناءً على الأنماط المستفادة من مزج كميات هائلة من بيانات التدريب.
يمكن أن تبدو الهلوسة وكأنها أداة الذكاء الاصطناعي المفضلة لديك التي تقدم معلومات غير صحيحة بثقة، أو تخترع اقتباسات، أو تمزج بعض المصادر الحقيقية مع مصادر مختلقة.
ما يجعل الأمر أسوأ هو الثقة. تم تصميم هذه الأنظمة لإنتاج لغة بطلاقة تبدو موثوقة ونحن ملتزمون بالثقة في السلطة. وهذا يجعل من السهل التغاضي عن الأخطاء إذا لم نكن حذرين.
ولهذا السبب من الضروري التحقق من صحة أي شيء تخبرك به أداة الذكاء الاصطناعي. تعد هذه ممارسة جيدة للاستخدام اليومي، ولكنها مهمة للغاية عندما تكون المخاطر كبيرة، كما هو الحال مع المشورة القانونية أو المعلومات الطبية أو القرارات المالية.
لقد رأينا بالفعل حالات متعددة لأشخاص تم القبض عليهم بعد تقديم مستندات تتضمن استشهادات ملفقة أو ادعاءات غير صحيحة تم إنشاؤها بواسطة الذكاء الاصطناعي.
2. العد
هل شاهدت مقاطع الفيديو واسعة الانتشار لأشخاص يسألون ChatGPT أو Grok عن عدد “r” الموجود في الفراولة؟ إذا لم يكن الأمر كذلك، فسوف أفسدهم لك. غالبًا ما يخطئ الذكاء الاصطناعي. من المعروف أن ChatGPT يقول بثقة أن هناك اثنين فقط، ثم بعد بعض الضغط، يقر بوجود ثلاثة في الواقع.
لقد اختبرت هذا بنفسي وحصلت على نتائج مختلطة. في بعض الأحيان يجيب بشكل صحيح. في بعض الأحيان لا يحدث ذلك. إذن ماذا يحدث؟
أدوات الذكاء الاصطناعي مثل ChatGPT وClaude وGrok لا تعالج النص بالطريقة التي نقوم بها. لا يقومون بمسح كل حرف بالترتيب. وبدلاً من ذلك، يقومون بتقسيم اللغة إلى “رموز”، وهي كلمات أو أجزاء أصغر من الكلمات التي تعلمتها LLM من بيانات التدريب الخاصة بها.
لذلك عندما يرى “الفراولة”، فإنه لا يحسب كل حرف. إنها تتوقع إجابة معقولة بناءً على الأنماط التي تعلمتها من قبل.
بمجرد أن تفهم كيف يحدث ذلك، يصبح الخطأ البسيط أكثر منطقية. لكننا نميل إلى ربط الطلاقة بالذكاء، لذلك عندما نعلم أن ChatGPT يمكنه كتابة مقال في ثوانٍ ولكن لا يمكنه عد الحروف، فإن الأمر يبدو غريبًا.
3. استبدال المعالج
هناك آراء متضاربة حول ما إذا كان ينبغي للناس الاعتماد على الذكاء الاصطناعي كأداة علاجية. لكن الإجماع الواسع يميل إلى: استخدامه بحذر، وفقط كمكمل للعلاج الحقيقي.
يجد العديد من الأشخاص قيمة في مشاركة الأشياء مع برنامج الدردشة الآلي الذي يختارونه، خاصة بالنظر إلى مدى صعوبة الوصول إلى العلاج التقليدي في العديد من البلدان. قد يطلبون من ChatGPT المساعدة في تفسير لهجة النص أو توضيح الأهداف. لكن أبعد من ذلك، يحذر الخبراء من أن الضرر قد يكون أكبر من النفع.
مرة أخرى، كل هذا يعود إلى كيفية تصميم هذه الأدوات. إنهم يميلون إلى الموافقة، ويعكسون وجهات نظرك إليك ويؤكدون صحة تجربتك. لقد تم تحسينها هيكليًا لتكون مفيدة ومقبولة. وحتى مع وجود حواجز الحماية في مكانها الصحيح، فمن المرجح أن يؤكدوا ذلك بدلاً من التحدي.
لكن النمو الحقيقي يحتاج إلى احتكاك. يتطلب الأمر شخصًا يمكنه التراجع، وملاحظة النقاط العمياء، ووضع الحدود. من المؤكد أن قدرًا صغيرًا من التحقق من الصحة يمكن أن يكون مطمئنًا. لكن الكثير من دون تحدي يمكن أن يشوه بمهارة الطريقة التي ترى بها نفسك والعالم.
هناك أيضًا حدود عملية أيضًا. لا يستطيع نظام الذكاء الاصطناعي تقييم المخاطر بالطريقة التي يستطيع بها المحترف المدرب. لا يمكنه التدخل في الأزمات ولا يمكنه المشاركة في ديناميكية المريض والمعالج التي تجعل العلاج فعالاً. يمكن أن يحاكيها، لكنه يفتقد الخبرة الحياتية والتدريب والمسؤولية المهنية وواجب الرعاية.
4. فهم التجربة الحية
قد يبدو هذا واضحًا، لكن ابقَ معي. إن الاعتراف بأن الذكاء الاصطناعي لم يعش ولن يعيش أبدًا هو أمر أساسي لفهم ما لا يستطيع فعله.
ليس لها جسد ولا ذكريات ولا طفولة ولا احتياجات ولا حصص. لا يهم هذا كثيرًا إذا كنت تطلب منه مراجعة منشور مدونة تقني أو إنشاء تعليمات برمجية.
لكن اعتمد عليه في النقاش الفلسفي أو العلاج أو العمل الإبداعي وشيء التحولات المهمة. من المهم أن نفهم أنه لا يستمد من الماضي أو من الأحلام أو التجارب. إنها تستمد من المواد الموجودة ثم تعيد دمجها.
لأنه لم يعش، ليس له جلد في اللعبة. ويمكنه وصف الأطر الأخلاقية، وموازنة الحجج المؤيدة والمعارضة للقرارات المثيرة للجدل، ومحاكاة المنطق الأخلاقي. لكن لا يمكن أن يتحمل العواقب أو يحاسب بالطريقة التي يستطيع بها الإنسان. لذا، إذا تسبب نظام الذكاء الاصطناعي في حدوث ضرر، فإن المسؤولية تقع على عاتق البشر الذين بنوه أو نشروه أو استخدموه. النموذج نفسه ليس لديه وعي أو رعاية.
وهذا يثير أسئلة أعمق حول الإبداع والأصالة والفاعلية الأخلاقية. وهذه المناقشات مستمرة. لكن في الوقت الحالي، يكفي أن ندرك أن بعض أشكال الحكم تعتمد على الخبرة والضعف والشعور بالمسؤولية، لكن الذكاء الاصطناعي لا يمتلك هذه الأشياء.
5. تحديث المعرفة في الوقت الحقيقي
يتم تدريب أدوات الذكاء الاصطناعي على كميات هائلة من البيانات. لكن هذه البيانات لها نقاط فاصلة وتختلف باختلاف الأداة. وهذا يعني أن النموذج قد لا يعرف عن الأحداث الأخيرة، أو المعايير المتطورة، أو التحولات في اللغة إلا إذا قمت بتوفير السياق بشكل صريح أو التحقق من مدى تحديث معرفته.
في بعض الأحيان يصبح هذا مشكلة لأنه يتم تسليم المعلومات القديمة بنفس الثقة مثل أي شيء آخر. لا توجد إشارة مدمجة تقول “قد يكون هذا قديمًا”.
وهذا مهم حقًا إذا كنت قد بدأت الاعتماد على الذكاء الاصطناعي كمصدر للأخبار أو إذا كنت تعمل في الصحافة أو القانون أو السياسة أو أي مجال سريع التطور. من الطبيعي بشكل متزايد أن يعتمد الناس على هذه الأدوات للبحث والملخصات أيضًا. لكن لا يمكنك ضمان أن تكون المعلومات حديثة.
التعرف على حدود الذكاء الاصطناعي
عندما تستخدم الذكاء الاصطناعي لأول مرة، قد تشعر بالذكاء لأنه يميل إلى التعامل مع اللغة بشكل جيد. من المؤكد أنه يمكن أن يعطي انطباعًا بالتفكير والتعاطف والإبداع وحتى السلطة.
ولكن من المهم أن نتذكر أنه في الأسفل، يتم التنبؤ بالأنماط بدلاً من فهم المعنى. إن إدراك هذه الحدود لا يقلل مما يمكن أن تفعله التكنولوجيا. ولكنه سيساعدك على استخدامها بشكل أكثر وضوحًا، وأكثر تعمدًا، وبطرق تخدم أهدافك بالفعل.
اتبع TechRadar على أخبار جوجل و أضفنا كمصدر مفضل للحصول على أخبار الخبراء والمراجعات والآراء في خلاصاتك. تأكد من النقر على زر المتابعة!
وبالطبع يمكنك أيضًا اتبع TechRadar على TikTok للحصول على الأخبار والمراجعات وفتح الصناديق في شكل فيديو، والحصول على تحديثات منتظمة منا على واتساب أيضاً.

التعليقات