أثار تقرير جديد صادر عن صندوق التعليم التابع لمجموعة أبحاث المصلحة العامة الأمريكية (PIRG) مخاوف بشأن الاستخدام المتزايد لروبوتات الدردشة الخاصة بالذكاء الاصطناعي في ألعاب الأطفال، محذرًا من أن بعض هذه الأنظمة قد لا تكون مناسبة للمستخدمين الصغار. وفقًا للتقرير، فإن العديد من الألعاب التي تعمل بالذكاء الاصطناعي تدمج تقنية chatbot التي يمكن أن تولد استجابات مماثلة لتلك المستخدمة في خدمات الذكاء الاصطناعي التي تركز على البالغين، مما قد يعرض الأطفال لمحتوى غير مناسب أو مضلل.
وقد فحصت الدراسة مجموعة من الألعاب التي تتضمن ميزات الذكاء الاصطناعي التحادثي، بما في ذلك الدمى التفاعلية والروبوتات والأدوات التعليمية. تسمح العديد من هذه المنتجات للأطفال بالتحدث باستخدام لعبة تستجيب باللغة الطبيعية، مدعومة بنماذج لغوية كبيرة مماثلة لتلك المستخدمة في روبوتات الدردشة المدعمة بالذكاء الاصطناعي المتوفرة على نطاق واسع.
في حين أن التكنولوجيا يمكن أن تجعل الألعاب أكثر تفاعلية وتعليمية، يرى باحثو PIRG أن الضمانات المضمنة في بعض المنتجات قد لا تكون قوية بما يكفي لحماية الجماهير الأصغر سنا. وعلى وجه الخصوص، يسلط التقرير الضوء على أن أنظمة الذكاء الاصطناعي الأساسية غالبًا ما تنشأ من منصات مصممة في المقام الأول للمستخدمين العامين وليس للأطفال.
ولهذا السبب، يمكن أن تتضمن استجابات الذكاء الاصطناعي الناتجة عن هذه الألعاب معلومات أو موضوعات محادثة أكثر ملاءمة للبالغين من الأطفال. ويحذر التقرير أيضًا من أن الذكاء الاصطناعي قد ينتج إجابات غير دقيقة أو استجابات غير متوقعة، مما قد يربك المستخدمين الشباب الذين يميلون إلى الثقة في الألعاب باعتبارها مصادر موثوقة للمعلومات.
كما وجد الباحثون الذين قاموا بمراجعة وثائق الألعاب وسياسات الخصوصية أن بعض المنتجات تعتمد بشكل كبير على أنظمة الذكاء الاصطناعي المستندة إلى السحابة
وهذا يعني أن التفاعلات الصوتية للأطفال قد يتم نقلها إلى خوادم خارجية حيث تتم معالجة البيانات واستخدامها لإنشاء الاستجابات. ويقول المدافعون عن الخصوصية إن هذا يثير مخاوف إضافية بشأن كيفية تخزين بيانات الأطفال واستخدامها. قد تقوم بعض الألعاب بجمع تسجيلات صوتية أو مطالبات المستخدم أو معلومات شخصية أخرى أثناء المحادثات. إذا لم يتم تصميم هذه الأنظمة بعناية مع حماية خصوصية الأطفال، فمن المحتمل أن يتم إساءة استخدام البيانات أو تخزينها دون ضمانات واضحة.

ويشير التقرير أيضًا إلى أن العديد من الألعاب التي تعمل بالذكاء الاصطناعي تتضمن إخلاء مسؤولية مدفونة في شروط الخدمة أو وثائق المنتج. تنص إخلاءات المسؤولية هذه أحيانًا على أن استجابات الذكاء الاصطناعي قد لا تكون دائمًا دقيقة أو مناسبة، مما ينقل المسؤولية بشكل فعال إلى الآباء بينما يتم تسويق اللعبة نفسها مباشرة للأطفال.
وهذا الوضع مهم لأن تكنولوجيا الذكاء الاصطناعي تدخل بشكل متزايد في المنتجات الاستهلاكية اليومية، بما في ذلك العناصر المصممة خصيصًا لجمهور الشباب. يمكن أن يكون للألعاب التي تحاكي المحادثات تأثير قوي على الأطفال، الذين غالبًا ما يعاملونها كرفاق أو أدوات للتعلم.
يقول الخبراء إن الأطفال قد يواجهون صعوبة في التمييز بين المعلومات الموثوقة والاستجابات التي يولدها الذكاء الاصطناعي والتي تكون تخمينية أو متحيزة أو غير صحيحة. ومع استمرار تطور أنظمة الذكاء الاصطناعي، فإن ضمان تكييف هذه التقنيات بما يتناسب مع سلامة الأطفال سوف يصبح ذا أهمية متزايدة.
تسلط النتائج الضوء أيضًا على التحدي التنظيمي الأوسع
في حين أن العديد من البلدان لديها قوانين مصممة لحماية خصوصية الأطفال على الإنترنت، مثل قانون حماية خصوصية الأطفال على الإنترنت (COPPA) في الولايات المتحدة، فقد تم تطوير هذه اللوائح قبل ظهور الذكاء الاصطناعي التوليدي.
تجادل مجموعات المناصرة بأن الجهات التنظيمية قد تحتاج إلى تحديث معايير السلامة والمبادئ التوجيهية لمعالجة كيفية تفاعل أنظمة الذكاء الاصطناعي مع الأطفال من خلال الأجهزة المتصلة.

ويدعو تقرير PIRG مصنعي الألعاب إلى تنفيذ ضمانات أقوى، بما في ذلك تصفية المحتوى الأكثر صرامة، والإفصاح الأكثر وضوحًا عن استخدام الذكاء الاصطناعي، وممارسات البيانات الأكثر شفافية. كما توصي الشركات بتصميم أنظمة الذكاء الاصطناعي خصيصًا للأطفال بدلاً من إعادة استخدام النماذج المصممة في الأصل لجماهير البالغين.
وبالنظر إلى المستقبل، يقول الباحثون إن التعاون بين شركات التكنولوجيا والجهات التنظيمية وخبراء سلامة الأطفال سيكون ضروريًا لضمان بقاء الألعاب التي تعمل بالذكاء الاصطناعي مبتكرة وآمنة.
ومع تزايد اندماج الذكاء الاصطناعي في المنتجات اليومية، فإن التحدي يكمن في الموازنة بين فوائد التكنولوجيا التفاعلية ومسؤولية حماية المستخدمين الأصغر سنا من المخاطر المحتملة.

التعليقات