- تقوم هيئة مراقبة البيانات في المملكة المتحدة رسميًا بالتحقيق في X وxAI بشأن إنشاء Grok لصور عميقة التزييف بدون موافقة
- وبحسب ما ورد قام Grok بإنشاء ملايين من صور الذكاء الاصطناعي الصريحة، بما في ذلك الصور التي يبدو أنها تصور قاصرين
- يبحث التحقيق في الانتهاكات المحتملة للقانون العام لحماية البيانات (GDPR) ونقص الضمانات
أطلقت هيئة تنظيم حماية البيانات في المملكة المتحدة تحقيقًا شاملاً في X وxAI بعد تقارير تفيد بأن برنامج الدردشة Grok AI كان ينتج صورًا غير لائقة عميقة التزييف لأشخاص حقيقيين دون موافقتهم. ويبحث مكتب مفوض المعلومات فيما إذا كانت الشركات قد انتهكت اللائحة العامة لحماية البيانات من خلال السماح لـ Grok بإنشاء ومشاركة صور الذكاء الاصطناعي الجنسية الصريحة، بما في ذلك بعض الصور التي يبدو أنها تصور الأطفال.
وقال ويليام مالكولم، المدير التنفيذي للمخاطر التنظيمية والابتكار في ICO، في بيان: “التقارير المتعلقة بـ Grok تثير أسئلة مثيرة للقلق للغاية حول كيفية استخدام البيانات الشخصية للأشخاص لإنشاء صور حميمة أو جنسية دون علمهم أو موافقتهم، وما إذا كانت الضمانات اللازمة قد تم وضعها لمنع ذلك”.
ولا ينظر المحققون ببساطة إلى ما فعله المستخدمون، بل إلى ما فشل X وxAI في منعه. وتأتي هذه الخطوة في أعقاب مداهمة الأسبوع الماضي لمكتب X في باريس من قبل المدعين الفرنسيين كجزء من تحقيق جنائي موازٍ في التوزيع المزعوم لصور مزيفة وإساءة معاملة الأطفال.
لقد جعل حجم هذه الحادثة من المستحيل اعتبارها حالة معزولة لعدد قليل من المطالبات السيئة. ويقدر الباحثون أن جروك أنتج حوالي ثلاثة ملايين صورة جنسية في أقل من أسبوعين، بما في ذلك عشرات الآلاف التي يبدو أنها تصور قاصرين. يقدم هيكل العقوبات الخاص باللائحة العامة لحماية البيانات دليلاً على المخاطر: يمكن أن تؤدي الانتهاكات إلى غرامات تصل إلى 17.5 مليون جنيه إسترليني أو 4٪ من إجمالي المبيعات العالمية.
مشكلة كبيرة
أصرت X وxAI على تطبيق ضمانات أقوى، على الرغم من أن التفاصيل محدودة. أعلن X مؤخرًا عن إجراءات جديدة لمنع بعض مسارات توليد الصور والحد من إنشاء صور معدلة تتضمن قاصرين. ولكن بمجرد بدء تداول هذا النوع من المحتوى، خاصة على منصة كبيرة بحجم X، يصبح من المستحيل تقريبًا محوه بالكامل.
ويطالب السياسيون الآن بتغييرات تشريعية نظامية. حثت مجموعة من النواب بقيادة النائبة عن حزب العمال، أنيليس دودز، الحكومة على تقديم تشريع للذكاء الاصطناعي يتطلب من المطورين إجراء تقييمات شاملة للمخاطر قبل إطلاق الأدوات للجمهور.
نظرًا لأن إنشاء الصور باستخدام الذكاء الاصطناعي أصبح أكثر شيوعًا، فإن الخط الفاصل بين المحتوى الحقيقي والملفق يصبح غير واضح. يؤثر هذا التحول على أي شخص لديه وسائل التواصل الاجتماعي، وليس فقط المشاهير أو الشخصيات العامة. عندما تتمكن أدوات مثل Grok من تصنيع صور صريحة ومقنعة من صورة شخصية عادية، تتغير مخاطر مشاركة الصور الشخصية.
تصبح الخصوصية شيئًا أكثر صعوبة في الحماية. لا يهم مدى حرصك عندما تتفوق التكنولوجيا على المجتمع. ويسعى المنظمون في جميع أنحاء العالم إلى مواكبة ذلك. قد يستمر التحقيق الذي تجريه المملكة المتحدة في X وxAI لأشهر، ولكن من المرجح أن يؤثر على كيفية تصرف منصات الذكاء الاصطناعي.
ومن المرجح أن يتم الدفع نحو متطلبات أقوى وقابلة للتنفيذ للسلامة حسب التصميم. وسيكون هناك المزيد من الضغوط على الشركات لتوفير الشفافية حول كيفية تدريب نماذجها وما هي حواجز الحماية الموجودة.
ويشير التحقيق الذي أجرته المملكة المتحدة إلى أن صبر الهيئات التنظيمية بدأ ينفد تجاه فكرة نهج “التحرك بسرعة وتحطيم الأشياء” فيما يتعلق بالسلامة العامة. عندما يتعلق الأمر بالذكاء الاصطناعي الذي يمكنه التلاعب بحياة الناس، هناك زخم للتغيير الحقيقي. عندما يسهل الذكاء الاصطناعي تشويه صورة شخص ما، فإن عبء الحماية يقع على عاتق المطورين، وليس الجمهور.
اتبع TechRadar على أخبار جوجل و أضفنا كمصدر مفضل للحصول على أخبار الخبراء والمراجعات والآراء في خلاصاتك. تأكد من النقر على زر المتابعة!
وبالطبع يمكنك أيضًا اتبع TechRadar على TikTok للحصول على الأخبار والمراجعات وفتح الصناديق في شكل فيديو، والحصول على تحديثات منتظمة منا على واتساب أيضاً.

أفضل أجهزة الكمبيوتر المحمولة للأعمال لجميع الميزانيات

التعليقات