- أزالت شركة Anthropic تعهدها بعدم تدريب أو إطلاق نماذج الذكاء الاصطناعي دون ضمان إجراءات السلامة مسبقًا
- ستعتمد الشركة الآن على تقارير الشفافية وخرائط طريق السلامة بدلاً من الشروط المسبقة الصارمة
- ويقول المنتقدون إن هذا التحول يظهر حدود الالتزامات الطوعية المتعلقة بسلامة الذكاء الاصطناعي دون تنظيم ملزم
لقد تخلت شركة Anthropic رسميًا عن الوعد المركزي بعدم تدريب أو إطلاق أنظمة الذكاء الاصطناعي الحدودية ما لم تتمكن من ضمان السلامة الكافية مسبقًا. وأكدت الشركة التي تقف وراء كلود القرار في مقابلة مع وقتمما يمثل نهاية للسياسة التي ميزتها ذات يوم بين مطوري الذكاء الاصطناعي. تركز سياسة التوسع المسؤول المنقحة حديثًا بشكل أكبر على ضمان بقاء الشركة قادرة على المنافسة مع ارتفاع سوق الذكاء الاصطناعي.
لسنوات عديدة، صاغت شركة أنثروبيك هذا التعهد كدليل على أنها ستقاوم الضغوط التجارية التي تدفع المنافسين إلى شحن أنظمة أكثر قوة من أي وقت مضى. وقد منعت هذه السياسة فعليًا من التقدم إلى ما بعد مستويات معينة ما لم تكن تدابير السلامة المحددة مسبقًا مطبقة بالفعل. الآن، تستخدم Anthropic إطارًا أكثر مرونة بدلاً من التوقفات الفئوية.
وتصر الشركة على أن التغيير عملي وليس أيديولوجي. ويرى المسؤولون التنفيذيون أن ضبط النفس من جانب واحد لم يعد منطقياً في سوق تحددها التكرار السريع والإلحاح الجيوسياسي. لكن هذا التحول يبدو وكأنه نقطة تحول في كيفية تفكير صناعة الذكاء الاصطناعي في التنظيم الذاتي.
وبموجب سياسة التوسع المسؤول الجديدة، تتعهد أنثروبك بنشر “خرائط طريق السلامة الحدودية” التفصيلية التي تحدد معالم السلامة المخطط لها، إلى جانب “تقارير المخاطر” المنتظمة التي تقيم قدرات النموذج والتهديدات المحتملة. وتقول الشركة أيضًا إنها ستطابق أو تتجاوز جهود السلامة التي يبذلها المنافسون وتؤخر التطوير إذا اعتقدت أنها تقود المجال وتحدد مخاطر كارثية كبيرة. وما لن تفعله بعد الآن هو الوعد بوقف التدريب حتى يتم ضمان جميع إجراءات التخفيف مقدمًا.
قد لا يلاحظ المستخدمون اليوميون أي تغييرات أثناء تفاعلهم مع Claude أو أدوات الذكاء الاصطناعي الأخرى. ومع ذلك، فإن الحواجز التي تحكم كيفية تدريب هذه الأنظمة تؤثر على كل شيء، بدءًا من الدقة وحتى سوء الاستخدام الاحتيالي. عندما تقرر الشركة، بمجرد تحديد شروطها المسبقة الصارمة، أن هذه الشروط لم تعد قابلة للتطبيق، فهذا يشير إلى إعادة معايرة أوسع داخل الصناعة.
السيطرة كلود
عندما قدمت شركة أنثروبيك سياستها الأصلية في عام 2023، كان بعض المسؤولين التنفيذيين يأملون في أن تلهم المنافسين أو حتى توجه التنظيم النهائي. ولم يتحقق هذا الزخم التنظيمي بشكل كامل قط. ولا يزال التشريع الفيدرالي بشأن الذكاء الاصطناعي معطلاً، ويميل المناخ السياسي الأوسع بعيدًا عن تطوير أي إطار عمل. لقد تُركت الشركات للاختيار بين ضبط النفس الطوعي والبقاء التنافسي.
تنمو شركة Anthropic بسرعة، حيث تتفوق إيراداتها ومحفظتها على منافسيها مثل OpenAI وGoogle، حتى أنها تسخر من حصول ChatGPT على إعلانات في إعلان Super Bowl. لكن من الواضح أن الشركة رأت أن الخط الأحمر للسلامة يشكل عائقًا أمام هذا النمو.
تؤكد الأنثروبيك أن إطارها المنقح يحافظ على ضمانات ذات معنى. تهدف خرائط الطريق الجديدة إلى خلق ضغط داخلي لتحديد أولويات أبحاث التخفيف. تهدف تقارير المخاطر المقبلة إلى توفير محاسبة عامة أكثر وضوحًا حول الكيفية التي قد تؤدي بها قدرات النموذج إلى إساءة الاستخدام.
قال نيك كيرينوس، الرئيس التنفيذي والمؤسس المشارك لـ Rids AI، وهي منظمة تركز على المراقبة المستقلة واكتشاف المخاطر في الذكاء الاصطناعي: “لا تزال السياسة الجديدة تتضمن بعض حواجز الحماية، لكن الوعد الأساسي، وهو أن شركة Anthropic لن تطلق نماذج ما لم تتمكن من ضمان التخفيف المناسب للسلامة مقدمًا، قد انتهى”. “وهذا هو بالتحديد سبب أهمية المراقبة المستمرة والمستقلة لأنظمة الذكاء الاصطناعي. فالالتزامات الطوعية يمكن إعادة كتابتها. لكن التنظيم، المدعوم بالرقابة في الوقت الحقيقي، لا يمكن ذلك.”
وأشار كايرينوس أيضًا إلى المفارقة في مبلغ 20 مليون دولار الذي قدمته Anthropic قبل أسبوعين إلى Public First Action، وهي مجموعة تدعم مرشحي الكونجرس الذين تعهدوا بالضغط من أجل تنظيم سلامة الذكاء الاصطناعي. واقترح أن هذه المساهمة تؤكد مدى تعقيد اللحظة الحالية. وقد تدعو الشركات إلى فرض تنظيمات أقوى بينما تعمل في الوقت نفسه على إعادة ضبط قيودها الداخلية.
والسؤال الأوسع الذي يواجه الصناعة هو ما إذا كانت المعايير الطوعية قادرة على تشكيل مسار التكنولوجيات التحويلية بشكل مفيد. حاولت الأنثروبولوجية ذات مرة ترسيخ نفسها كنموذج لضبط النفس. وتتطلب سياستها المعدلة التعويض عن المنافسة. وهذا لا يعني التخلي عن السلامة، لكنه يعني أن ترتيب العمليات قد تغير.
قد لا يقرأ الشخص العادي سياسات التوسع المسؤولة أو تقارير المخاطر، لكنه يعيش مع التأثيرات النهائية لتلك القرارات. ترى أنثروبيك أن أبحاث السلامة الهادفة تتطلب البقاء عند الحدود، وليس التراجع عنها. وسواء كانت هذه الفلسفة مطمئنة أو مثيرة للقلق، فهذا يعتمد إلى حد كبير على وجهة نظر المرء حول مدى السرعة التي يجب أن يتحرك بها الذكاء الاصطناعي ومدى المخاطر التي يرغب المجتمع في تحملها في مقابل التقدم.
اتبع TechRadar على أخبار جوجل و أضفنا كمصدر مفضل للحصول على أخبار الخبراء والمراجعات والآراء في خلاصاتك. تأكد من النقر على زر المتابعة!
وبالطبع يمكنك أيضًا اتبع TechRadar على TikTok للحصول على الأخبار والمراجعات وفتح الصناديق في شكل فيديو، والحصول على تحديثات منتظمة منا على واتساب أيضاً.

التعليقات