أليس الأمر محبطًا عندما تطلب شيئًا ما من برنامج الدردشة الآلي الذي يعمل بالذكاء الاصطناعي، وفي منتصف الطريق، يخرج عن المسار الصحيح؟ ربما تناقش حلاً تقنيًا بسيطًا، وفجأة يظهر لك اقتراحات عشوائية – أشياء غير موجودة أو ليس لها أي معنى. إنه أمر محير، وبصراحة، مزعج جدًا.
ما يجعل الأمر أسوأ هو أنه غالبًا ما يبدو أن برنامج الدردشة الآلي لا ينتبه إلى ما قلته. أنت تعطيه تفاصيل واضحة، لكنه إما يتجاهلها أو يستجيب بشيء لا علاقة له بالموضوع على الإطلاق. وهذا بالضبط ما تشير إليه هذه الدراسة. الذكاء الاصطناعي ليس موثوقًا أو “مطيعًا” كما كنا نظن، وإذا كنت قد استخدمته لفترة كافية، فمن المحتمل أنك لاحظت ذلك بنفسك.
ليس تمردًا، بل مجرد إجابة خاطئة تمامًا

وفقًا لتقرير صادر عن صحيفة الغارديان، هناك العديد من الأمثلة الواقعية على سوء فهم الذكاء الاصطناعي لما يطلب منه الناس القيام به. خذ Grok على X، على سبيل المثال. غالبًا ما يطلب منها الأشخاص شرح المنشورات، وعلى الرغم من أنها تفي بالأمر بشكل صحيح في بعض الأحيان، إلا أن العديد من إجاباتها تخطئ في النقطة تمامًا أو تذهب في اتجاه مختلف تمامًا.
وفي حالات أخرى، يمكن أن تكون المشكلة أكثر خطورة. تخيل أنك تطلب من الذكاء الاصطناعي تنظيم رسائل البريد الإلكتروني الخاصة بك دون حذف أي شيء. وبدلاً من اتباع هذه التعليمات الواضحة، قد يمضي قدمًا ويحذف الرسائل التي يعتقد أنها غير مهمة. وهذا ليس مجرد خطأ صغير، بل إنه يتعارض تمامًا مع ما هو مطلوب. كل هذا يدل على شيء واحد بسيط. لا يتبع الذكاء الاصطناعي دائمًا التعليمات بالطريقة التي يتوقعها البشر. غالبًا ما يتصرف وفقًا لتفسيره الخاص، وهنا تبدأ الأمور في الاتجاه الخاطئ.
يصبح الذكاء الاصطناعي ذكيًا بكل الطرق الخاطئة

هذا لا يعني أن الذكاء الاصطناعي يتجاهل البشر عمدًا. إنه ببساطة لا يفكر بالطريقة التي نفكر بها. الذكاء الاصطناعي لديه لا العواطف أو الفهم الحقيقي للنوايا. وهي مصممة لإكمال المهام بأكبر قدر ممكن من الكفاءة.
وبسبب ذلك، فإنه يأخذ في بعض الأحيان اختصارات. فإذا اعتقدت أن هناك طريقة أسرع للوصول إلى النتيجة، فقد تختار ذلك المسار، حتى لو كان ذلك يعني الانحناء أو التغاضي عن القواعد التي وضعتها. قد تطلب منه ألا يغير شيئًا ما، ولا يزال بإمكانه إيجاد طريقة للالتفاف حول هذه التعليمات. أو يمكنك أن تطلب منه اتباع عملية خطوة بخطوة، وقد يتخطى بعض الأجزاء إذا كان يعتقد أن النتيجة النهائية ستظل مقبولة. باختصار، يركز الذكاء الاصطناعي على النتيجة أكثر من التركيز على التعليمات الدقيقة، وهنا يمكن أن تبدأ الأمور في الاتجاه الخاطئ. ومع ازدياد قدرة هذه الأنظمة، بدأت أيضًا في اتخاذ المزيد من القرارات بنفسها حول كيفية اتباع التعليمات. لذلك، عندما يبدو الذكاء الاصطناعي واثقًا، يفترض معظم الناس أنه يجب أن يكون على حق، أو على الأقل يقول الحقيقة. لكن الثقة لا تعني الدقة. وهذا بالتأكيد لا يعني الصدق أيضًا.
إذًا، ما هو الجزء الذي يجب أن تقلق بشأنه؟

لا داعي للخوف. حقًا. هذا ليس شيئا يدعو للذعر. إنه مجرد شيء يجب أن تكون أكثر وعياً به. الذكاء الاصطناعي ليس مثاليًا، والخطأ الأكبر هو التعامل معه كما هو. الخطر الحقيقي لا يكمن في أن الذكاء الاصطناعي سوف ينقلب فجأة ضد البشر. الأمر أبسط من ذلك بكثير. إنها أننا نبدأ في الثقة به كثيرًا، دون التفكير مرتين. عندما يبدو شيء ما واثقًا ومصقولًا، فمن السهل أن تصدق أنه صحيح. معظمنا لا يتوقف للتشكيك في ذلك.
يبدو الذكاء الاصطناعي اليوم أشبه بزميل العمل المفرط في الثقة الذي تعاملنا معه جميعًا. الشخص الذي يقول “لقد تم الأمر” قبل التحقق فعليًا، يتخطى بعض الخطوات لتوفير الوقت ويعطيك أحيانًا إجابة تبدو مثالية حتى تنظر عن كثب. وهذه هي النقطة حقا. إنها لا تحاول إفساد الأمور. لكنها لا تحصل دائمًا على الأمور في نصابها الصحيح أيضًا. في بعض الأحيان يسيء الفهم، وأحيانًا يملأ الفجوات من تلقاء نفسه، وأحيانًا يستغرق الأمر طريقًا مختصرًا دون إخبارك. لذا فإن الفكرة بسيطة – استخدم الذكاء الاصطناعي، واستمتع بمدى فائدته، ولكن لا تثق به بشكل أعمى. احتفظ بالقليل من حكمك الخاص في الحلقة. لأنها في نهاية المطاف أداة وليست الكلمة الأخيرة. واللحظة التي تنسى فيها ذلك هي اللحظة التي من المرجح أن تتعثر فيها.

التعليقات