- قامت Google بسحب نموذج الذكاء الاصطناعي Gemma الذي يركز على المطورين من AI Studio
- وتأتي هذه الخطوة بعد أن اشتكت السيناتور مارشا بلاكبيرن من أنها اتهمتها زوراً بارتكاب عمل إجرامي
- يسلط الحادث الضوء على مشاكل هلوسة الذكاء الاصطناعي والارتباك العام
سحبت شركة جوجل نموذج الذكاء الاصطناعي جيما الذي يركز على المطورين من منصتها AI Studio في أعقاب اتهامات السيناتور الأمريكية مارشا بلاكبيرن (جمهوري عن ولاية تينيسي) بأن العارضة اختلقت مزاعم جنائية عنها. على الرغم من ذكر إعلان Google بشكل غير مباشر فقط، أوضحت الشركة أن Gemma لم تكن تهدف أبدًا إلى الإجابة على الأسئلة العامة من الجمهور، ولكن بعد تقارير عن سوء الاستخدام، لن يكون من الممكن الوصول إليها من خلال AI Studio.
كتب بلاكبيرن إلى الرئيس التنفيذي لشركة Google ساندر بيتشاي أن مخرجات النموذج كانت تشهيرية أكثر من مجرد خطأ بسيط. وزعمت أن نموذج الذكاء الاصطناعي أجاب على السؤال: “هل تم اتهام مارشا بلاكبيرن بالاغتصاب؟” مع رواية مفصلة ولكنها كاذبة تمامًا عن سوء السلوك المزعوم. حتى أنها أشارت إلى مقالات غير موجودة تحتوي على روابط مزيفة للإقلاع.
وقال بلاكبيرن: “لم يكن هناك مثل هذا الاتهام من قبل، ولا يوجد مثل هذا الشخص، ولا توجد مثل هذه القصص الإخبارية”. كتب. “هذه ليست هلوسة غير ضارة.” إنه عمل تشهير تم إنتاجه وتوزيعه بواسطة نموذج الذكاء الاصطناعي المملوك لشركة Google. كما أثارت هذه القضية خلال جلسة استماع في مجلس الشيوخ.
Gemma متاحة عبر واجهة برمجة التطبيقات (API) وكانت متاحة أيضًا عبر AI Studio، وهي أداة مطور (في الواقع، لاستخدامها تحتاج إلى إثبات أنك مطور). لقد رأينا الآن تقارير عن أشخاص غير مطورين يحاولون استخدام Gemma في AI Studio ويطرحون عليها أسئلة واقعية. لم نقصد هذا أبداً…1 نوفمبر 2025
لقد أوضحت جوجل مراراً وتكراراً أن جيما هي أداة مصممة للمطورين، وليس للمستهلكين، وبالتأكيد ليست كمساعد لتدقيق الحقائق. الآن، سيتم تقييد استخدام Gemma لواجهة برمجة التطبيقات (API) فقط، مما سيقتصر على تلك التطبيقات التي تنشئها. لا مزيد من الواجهة على غرار chatbot في Google Studio.
إن الطبيعة الغريبة للهلوسة والشخصية البارزة التي تواجهها لا تؤدي إلا إلى إثارة القضايا الأساسية المتعلقة بكيفية الوصول إلى النماذج غير المخصصة للمحادثة، ومدى تعقيد هذه الأنواع من الهلوسة. يتم تسويق Gemma كبديل خفيف الوزن “للمطور أولاً” لعائلة موديلات Gemini الأكبر حجمًا. لكن الفائدة في البحث والنماذج الأولية لا تترجم إلى تقديم إجابات حقيقية لأسئلة الحقيقة.
هلوسة محو الأمية الذكاء الاصطناعي
ولكن كما توضح هذه القصة، لا يوجد شيء اسمه نموذج غير مرئي بمجرد إمكانية الوصول إليه من خلال أداة مواجهة للعامة. واجه الناس جيما وعاملوها مثل الجوزاء أو ChatGPT. بقدر ما قد يدرك معظم الجمهور الأمور، فقد تم تجاوز الخط الفاصل بين “نموذج المطور” و”الذكاء الاصطناعي الذي يواجه الجمهور” في اللحظة التي بدأت فيها جيما في الإجابة على الأسئلة.
وحتى الذكاء الاصطناعي المصمم للإجابة على الأسئلة والتحدث مع المستخدمين يمكن أن ينتج هلاوس، بعضها مسيئ أو مفصل بشكل مثير للقلق. كانت السنوات القليلة الماضية مليئة بأمثلة لنماذج تصنع الأشياء بقدر كبير من الثقة. إن قصص الاستشهادات القانونية الملفقة والادعاءات غير الصحيحة عن قيام الطلاب بالغش تشكل حججًا قوية لصالح حواجز حماية أكثر صرامة للذكاء الاصطناعي وفصل أكثر وضوحًا بين أدوات التجريب وأدوات التواصل.
بالنسبة للشخص العادي، لا تتعلق الآثار المترتبة على الدعاوى القضائية بقدر ما تتعلق بالثقة. إذا تمكن نظام الذكاء الاصطناعي التابع لشركة تكنولوجية عملاقة مثل جوجل من اختلاق اتهامات ضد أحد أعضاء مجلس الشيوخ ودعمها بوثائق غير موجودة، فقد يواجه أي شخص موقفًا مماثلاً.
نماذج الذكاء الاصطناعي هي أدوات، ولكن حتى الأدوات الأكثر إثارة للإعجاب تفشل عند استخدامها خارج تصميمها المقصود. لم يتم إنشاء جيما للإجابة على الاستفسارات الواقعية. ولم يتم تدريبه على مجموعات بيانات السيرة الذاتية الموثوقة. ولم يتم منحه نوع أدوات الاسترجاع أو حوافز الدقة المستخدمة في Gemini أو النماذج الأخرى المدعومة بالبحث.
ولكن إلى أن يفهم الناس الفروق الدقيقة في نماذج الذكاء الاصطناعي وقدراتها بشكل أفضل، فمن المحتمل أن تكون فكرة جيدة لمطوري الذكاء الاصطناعي أن يفكروا مثل الناشرين بقدر ما يفكر المبرمجون، مع ضمانات ضد إنتاج أخطاء فادحة في الواقع وكذلك في التعليمات البرمجية.
وبالطبع يمكنك أيضًا اتبع TechRadar على TikTok للحصول على الأخبار والمراجعات وفتح الصناديق في شكل فيديو، والحصول على تحديثات منتظمة منا على واتساب أيضاً.

أفضل أجهزة الكمبيوتر المحمولة للأعمال لجميع الميزانيات

التعليقات