في 5 فبراير، أصدرت أنثروبيك كلود أوبوس 4.6، أقوى نموذج للذكاء الاصطناعي لديها. من بين الميزات الجديدة للنموذج القدرة على تنسيق فرق من الوكلاء المستقلين – العديد من الذكاء الاصطناعي الذي يقسم العمل ويكمله بالتوازي. بعد اثني عشر يومًا من إصدار Opus 4.6، تخلت الشركة عن Sonnet 4.6، وهو نموذج أرخص يطابق تقريبًا مهارات Opus في البرمجة والكمبيوتر. في أواخر عام 2024، عندما قدمت شركة Anthropic لأول مرة نماذج يمكنها التحكم في أجهزة الكمبيوتر، كانت بالكاد قادرة على تشغيل المتصفح. الآن يمكن لـ Sonnet 4.6 التنقل في تطبيقات الويب وملء النماذج بقدرات على المستوى البشري، وفقًا لـ Anthropic. ويحتوي كلا الطرازين على ذاكرة عاملة كبيرة بما يكفي لاستيعاب مكتبة صغيرة.
يشكل عملاء المؤسسات الآن ما يقرب من 80 بالمائة من إيرادات Anthropic، وقد أغلقت الشركة جولة تمويل بقيمة 30 مليار دولار الأسبوع الماضي بتقييم قدره 380 مليار دولار. بكل المقاييس المتاحة، تعد شركة Anthropic واحدة من أسرع شركات التكنولوجيا توسعًا في التاريخ.
لكن وراء إطلاق المنتجات الكبيرة وتقييمها، تواجه شركة أنثروبيك تهديدًا خطيرًا: فقد أشار البنتاغون إلى أنه قد يصنف الشركة على أنها “خطر سلسلة التوريد” – وهي تسمية ترتبط في كثير من الأحيان بالخصوم الأجانب – ما لم تتخلى عن قيودها على الاستخدام العسكري. مثل هذا التصنيف يمكن أن يجبر مقاولي البنتاغون بشكل فعال على تجريد كلود من العمل الحساس.
حول دعم الصحافة العلمية
إذا كنت تستمتع بهذا المقال، ففكر في دعم صحافتنا الحائزة على جوائز من خلال الاشتراك. من خلال شراء اشتراك، فإنك تساعد على ضمان مستقبل القصص المؤثرة حول الاكتشافات والأفكار التي تشكل عالمنا اليوم.
وتصاعدت التوترات بعد الثالث من يناير/كانون الثاني، عندما داهمت قوات العمليات الخاصة الأمريكية فنزويلا وألقت القبض على نيكولاس مادورو. ال وول ستريت جورنال ذكرت أن القوات استخدمت كلود أثناء العملية من خلال شراكة Anthropic مع مقاول الدفاع Palantir – وأفادت Axios أن الحادثة أدت إلى تصعيد المفاوضات المشحونة بالفعل حول الغرض الذي يمكن استخدام كلود من أجله بالضبط. وعندما تواصل أحد المسؤولين التنفيذيين في الأنثروبيك مع شركة بالانتير للسؤال عما إذا كانت التكنولوجيا قد استخدمت في الغارة، أثار السؤال إنذارات فورية في البنتاغون. (شككت أنثروبيك في أن التواصل كان يهدف إلى الإشارة إلى عدم الموافقة على أي عملية محددة). وقال مسؤول كبير في الإدارة لموقع أكسيوس إن وزير الدفاع بيت هيجسيث “قريب” من قطع العلاقة., مضيفًا: “سوف نتأكد من أنهم يدفعون ثمن إجبارنا على ذلك بهذه الطريقة”.
يكشف هذا الاصطدام عن سؤال: هل يمكن لشركة تأسست لمنع كارثة الذكاء الاصطناعي أن تحافظ على خطوطها الأخلاقية بمجرد أن تعمل أقوى أدواتها – الوكلاء المستقلون القادرون على معالجة مجموعات البيانات الضخمة، وتحديد الأنماط والتصرف بناءً على استنتاجاتها – داخل شبكات عسكرية سرية؟ هل يتوافق الذكاء الاصطناعي “السلامة أولاً” مع العميل الذي يريد أنظمة يمكنها التفكير والتخطيط والتصرف بمفردها على المستوى العسكري؟
لقد رسمت الأنثروبيك خطين أحمرين: عدم وجود مراقبة جماعية للأميركيين وعدم وجود أسلحة ذاتية التشغيل بالكامل. قال الرئيس التنفيذي داريو أمودي إن شركة Anthropic ستدعم “الدفاع الوطني بكل الطرق باستثناء تلك التي تجعلنا أشبه بخصومنا المستبدين”. ووافقت مختبرات رئيسية أخرى -OpenAI، وGoogle، وxAI- على تخفيف الضمانات للاستخدام في أنظمة البنتاغون غير السرية، لكن أدواتها لم تعمل بعد داخل الشبكات السرية للجيش. وطالب البنتاغون بإتاحة الذكاء الاصطناعي “لجميع الأغراض المشروعة”.
يختبر الاحتكاك الأطروحة الأنثروبيكية المركزية. تأسست الشركة في عام 2021 من قبل مديرين تنفيذيين سابقين في OpenAI الذين اعتقدوا أن الصناعة لا تأخذ السلامة على محمل الجد بما فيه الكفاية. لقد وضعوا كلود كبديل أخلاقي. في أواخر عام 2024، أتاحت Anthropic كلود على منصة Palantir بمستوى أمان سحابي يصل إلى “سري”، مما جعل كلود، من خلال الحسابات العامة، أول نموذج لغة كبير يعمل داخل الأنظمة السرية.
والسؤال الذي تفرضه المواجهة الآن هو ما إذا كانت السلامة أولاً هي هوية متماسكة بمجرد دمج التكنولوجيا في العمليات العسكرية السرية وما إذا كانت الخطوط الحمراء ممكنة بالفعل. تقول إميليا بروباسكو، وهي زميلة بارزة في مركز جورج تاون للأمن والتكنولوجيا الناشئة: “تبدو هذه الكلمات بسيطة: المراقبة غير القانونية للأميركيين”. “ولكن عندما تتعمق في الأمر، تجد أن هناك جيوشًا كاملة من المحامين الذين يحاولون فهم كيفية تفسير هذه العبارة”.
النظر في السابقة. بعد الكشف عن إدوارد سنودن، دافعت حكومة الولايات المتحدة عن المجموعة الكبيرة من البيانات الوصفية للهاتف – من اتصل بمن ومتى وإلى متى – بحجة أن هذا النوع من البيانات لا يحمل نفس حماية الخصوصية مثل محتويات المحادثات. كان النقاش حول الخصوصية يدور حول قيام المحللين البشريين بالبحث في تلك السجلات. تخيل الآن أن نظام الذكاء الاصطناعي يستعلم عن مجموعات بيانات ضخمة، مثل رسم خرائط للشبكات، وتحديد الأنماط، وتحديد الأشخاص محل الاهتمام. لقد تم بناء الإطار القانوني الذي لدينا لعصر المراجعة البشرية، وليس التحليل على نطاق الآلة.
يقول بيتر أسارو، المؤسس المشارك للجنة الدولية للحد من أسلحة الروبوتات: “بمعنى ما، فإن أي نوع من جمع البيانات الجماعية التي تطلب من الذكاء الاصطناعي النظر فيها هو مراقبة جماعية بالتعريف البسيط”. وأفاد موقع أكسيوس أن المسؤول الكبير “جادل بأن هناك منطقة رمادية كبيرة حول” القيود التي تفرضها شركة Anthropic “وأنه من غير العملي أن يضطر البنتاغون إلى التفاوض على حالات الاستخدام الفردية مع” الشركة. يقدم أسارو قراءتين لتلك الشكوى. التفسير السخي هو أنه من المستحيل حقًا تعريف المراقبة في عصر الذكاء الاصطناعي. ويقول أسارو إن الجانب المتشائم هو أنهم “يريدون حقًا استخدام تلك الأسلحة للمراقبة الجماعية والأسلحة المستقلة ولا يريدون قول ذلك، لذلك يطلقون عليها المنطقة الرمادية”.
وفيما يتعلق بالخط الأحمر الآخر الذي حددته البشرية، وهو الأسلحة المستقلة، فإن التعريف ضيق بما يكفي ليكون قابلاً للإدارة – وهي أنظمة تختار الأهداف وتشتبك معها دون إشراف بشري. لكن أسارو يرى منطقة رمادية أكثر إثارة للقلق. ويشير إلى أنظمة Lavender and Gospel التابعة للجيش الإسرائيلي، والتي تم الإبلاغ عن أنها تستخدم الذكاء الاصطناعي لإنشاء قوائم أهداف ضخمة تذهب إلى المشغل البشري للموافقة عليها قبل تنفيذ الضربات. ويقول: “لقد قمت، بشكل أساسي، بأتمتة عنصر الاستهداف، وهو شيء نحن مهتمون به للغاية ويرتبط ارتباطًا وثيقًا به، حتى لو كان يقع خارج التعريف الصارم الضيق”. والسؤال هو ما إذا كان كلود، الذي يعمل داخل أنظمة Palantir على شبكات سرية، يمكنه القيام بشيء مماثل – معالجة المعلومات الاستخبارية، وتحديد الأنماط، وإبراز الأشخاص موضع الاهتمام – دون أن يتمكن أي شخص في Anthropic من تحديد أين ينتهي العمل التحليلي بالضبط ويبدأ الاستهداف.
إن عملية مادورو تختبر هذا التمييز بالضبط. يقول أسارو: “إذا كنت تقوم بجمع البيانات والمعلومات الاستخبارية لتحديد الأهداف، لكن البشر يقررون: “حسنًا، هذه هي قائمة الأهداف التي سنقصفها بالفعل” – فهذا يعني أن لديك هذا المستوى من الإشراف البشري الذي نحاول أن نطلبه”. “من ناحية أخرى، لا تزال تعتمد على أنظمة الذكاء الاصطناعي هذه لاختيار هذه الأهداف، وما مدى التدقيق ومدى التعمق في صحة أو شرعية تلك الأهداف هو سؤال منفصل.”
ربما تحاول الأنثروبيك رسم خط أضيق – بين تخطيط المهمة، حيث قد يساعد كلود في تحديد أهداف القصف، والعمل الدنيوي المتمثل في معالجة الوثائق. يقول بروباسكو: “توجد كل هذه الأنواع من التطبيقات المملة لنماذج اللغات الكبيرة”.
لكن قدرات نماذج الأنثروبيك قد تجعل من الصعب الحفاظ على هذه الفروق. يمكن لفرق عملاء Opus 4.6 تقسيم مهمة معقدة والعمل بشكل متوازٍ، وهو تقدم في معالجة البيانات المستقلة يمكن أن يحدث تحولًا في الاستخبارات العسكرية. يمكن لكل من Opus وSonnet التنقل بين التطبيقات وملء النماذج والعمل عبر الأنظمة الأساسية بأقل قدر من الإشراف. هذه الميزات التي تقود الهيمنة التجارية لشركة Anthropic هي ما يجعل كلود جذابًا للغاية داخل شبكة سرية. يمكن للنموذج الذي يتمتع بذاكرة عاملة ضخمة أن يحتوي أيضًا على ملف استخباراتي كامل. يمكن للنظام الذي يمكنه تنسيق الوكلاء المستقلين لتصحيح قاعدة التعليمات البرمجية تنسيقهم لرسم خريطة لسلسلة توريد المتمردين. كلما أصبح كلود أكثر قدرة، كلما أصبح الخط الفاصل بين العمل التحليلي الناخر الذي ترغب الأنثروبيك في دعمه وبين المراقبة والاستهداف الذي تعهدت برفضه.
وبينما تدفع الأنثروبيك حدود الذكاء الاصطناعي المستقل، فإن طلب الجيش على هذه الأدوات سوف يتزايد بشكل أكبر. يخشى بروباسكو أن يؤدي الصدام مع البنتاغون إلى خلق ثنائية زائفة بين السلامة والأمن القومي. “ماذا عن أن لدينا الأمان و الأمن القومي؟” تسأل.

التعليقات