التخطي إلى المحتوى


  • أزالت شركة Anthropic تعهدها بعدم تدريب أو إطلاق نماذج الذكاء الاصطناعي دون ضمان إجراءات السلامة مسبقًا
  • ستعتمد الشركة الآن على تقارير الشفافية وخرائط طريق السلامة بدلاً من الشروط المسبقة الصارمة
  • ويقول المنتقدون إن هذا التحول يظهر حدود الالتزامات الطوعية المتعلقة بسلامة الذكاء الاصطناعي دون تنظيم ملزم

لقد تخلت شركة Anthropic رسميًا عن الوعد المركزي بعدم تدريب أو إطلاق أنظمة الذكاء الاصطناعي الحدودية ما لم تتمكن من ضمان السلامة الكافية مسبقًا. وأكدت الشركة التي تقف وراء كلود القرار في مقابلة مع وقتمما يمثل نهاية للسياسة التي ميزتها ذات يوم بين مطوري الذكاء الاصطناعي. تركز سياسة التوسع المسؤول المنقحة حديثًا بشكل أكبر على ضمان بقاء الشركة قادرة على المنافسة مع ارتفاع سوق الذكاء الاصطناعي.

لسنوات عديدة، صاغت شركة أنثروبيك هذا التعهد كدليل على أنها ستقاوم الضغوط التجارية التي تدفع المنافسين إلى شحن أنظمة أكثر قوة من أي وقت مضى. وقد منعت هذه السياسة فعليًا من التقدم إلى ما بعد مستويات معينة ما لم تكن تدابير السلامة المحددة مسبقًا مطبقة بالفعل. الآن، تستخدم Anthropic إطارًا أكثر مرونة بدلاً من التوقفات الفئوية.



Fonte

التعليقات

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *