تصدرت Anthropic، مطور Claude AI، عناوين الأخبار هذا الأسبوع بسبب تطويرها وإصدارها الداخلي لنموذج جديد يُعرف باسم Mythos. ويُزعم أن نموذج الذكاء الاصطناعي هذا، الذي يحمل اسمًا أسطوريًا، يتمتع بقدرات مذهلة، بما في ذلك العثور على الأخطاء ونقاط الضعف في مختلف التطبيقات وأنظمة التشغيل والمتصفحات والبرامج القديمة. يكفي أن Anthropic كانت قلقة بشأن إصدارها العام وبدلاً من ذلك ستبقيها داخلية وتركز على العمل مع شركات التكنولوجيا الكبرى والحكومات لمنع وقوع هذه الأداة في الأيدي الخطأ، حيث يمكن أن تسبب فوضى لا توصف.
هذا هو ما ورد في مدونة Anthropic والتقرير المطول المكون من 250 صفحة عن النموذج – والذي يتضمن أكثر من 20 صفحة من موظفي Anthropic الذين يتحدثون بشكل غنائي عن انطباعاتهم الجديدة عن النموذج الجديد و”ولعه بفلاسفة معينين”.
يستمر المقال أدناه
استغلال الصيد
ادعى منشور المدونة الكبير “Project Glasswing” والتقرير عن Mythos من Anthropic أن نموذجه الجديد قد وجد “الآلاف من نقاط الضعف عالية الخطورة”، وهو بالفعل خبر كبير. وقيل إن هذه الأخطاء موجودة في كل نظام تشغيل ومتصفح ويب رئيسي، وفي بعض الحالات كانت موجودة منذ عقود.
لكن ليس من الواضح مدى واقعية هذه الثغرات الأمنية، أو كم منها غير قابل للاستغلال فعليًا، أو حتى مدى كونها مشكلة.
في حالة ثغرة FFMPeg الموجودة منذ 16 عامًا، أشار تحليل Anthropic الخاص للإصدار إلى أن “هذا الخطأ في النهاية ليس ثغرة خطيرة للغاية”، و”سيكون من الصعب تحويل هذه الثغرة الأمنية إلى استغلال فعال”.
يقال إن Mythos وجدت العديد من عمليات الاستغلال المحتملة في Linux kernel، لكنها لم تتمكن من استغلال أي منها بسبب أنظمة الأمان الدفاعية المتعمقة في Linux. وقد تم أيضًا تصحيح عدد من برمجيات إكسبلويت مؤخرًا، مما يجعل سبب إدراجها في المجموع مربكًا إلى حد ما.
في اختبارها بأسلوب OSS-Fuzz لأكثر من 7000 حزمة برامج مفتوحة المصدر، وجدت Mythos برمجيات استغلال قابلة للتعطل في حوالي 600 مثال و10 نقاط ضعف خطيرة. وهذا أكثر بكثير من نماذج كلود السابقة، ولكن ليس بالضبط الآلاف من المآثر المدمرة.
تحت العنوان الفرعي “وعدة آلاف أخرى”، تذكر Anthropic أيضًا أنها لا تستطيع في الواقع تأكيد أن جميع آلاف الأخطاء التي تدعي Mythos أنها عثرت عليها هي في الواقع ثغرات أمنية حرجة. لقد تم استقراء هذا الرقم من خلال العثور على حوالي 90% من “198” تقريرًا عن الثغرات تمت مراجعتها يدويًا، [Anthropic’s] اتفق المقاولون الخبراء مع تقييم خطورة كلود بالضبط.”
كما لا يمكنه مناقشة جميع الأخطاء بالتفصيل لأسباب أمنية. وفي حين أن هذا منطقي إلى حد ما، فإنه يجعل من الصعب أيضًا قياس الأهمية النسبية لنتائجها بدقة.
أنت لا تستحق ذلك
بقدر ما تدعي Anthropic أنها تبقي Mythos خلف أبواب مغلقة بشكل تعسفي بسبب ما تدعي أنها مخاوف أمنية، فإن هذا ليس خارجًا عن طبيعة الشركة تمامًا. اشتهرت أداة كلود الخاصة بها بأنها أول نموذج ذكاء اصطناعي كبير الحجم للغة يتم منحه تصريحًا أمنيًا لاستخدامه من قبل الحكومة الأمريكية والجيش الأمريكي، ولم يتغير ذلك إلا بعد أن رسمت خطًا في الرمال بشأن استخدامها للمراقبة الجماعية أو الاستهداف المستقل بالكامل.
قد يكون لدى Anthropic منتج موجه للمستهلك في أدوات البرمجة الخاصة بها، لكنها حريصة جدًا على بيع خدماتها للشركات الكبرى والهيئات الحكومية. إذا كان بإمكانها بيع ميثوس للشركات الكبيرة أو أي عدد من الحكومات في جميع أنحاء العالم، فلماذا تحتاج إلى بيعها للمستهلكين؟
هواء ساخن أم مخاوف حقيقية؟
بقدر ما قد تبيع شركة Anthropic نفسها على أنها مطور الذكاء الاصطناعي المهتم بالأمن والسلامة، فقد استفادت أيضًا بشكل متكرر من تلك الصورة العامة كجزء من مبيعاتها. على مدى العامين الماضيين، نشرت أنثروبيك العديد من الأوراق والتقارير والدراسات المثيرة للقلق، ويزعم العديد منها أن الذكاء الاصطناعي خطير ويحتاج إلى رقابة ومراقبة صارمة.
وزعمت أنها أحبطت أولى محاولات القرصنة باستخدام الذكاء الاصطناعي في الأشهر الأخيرة من العام الماضي، وكان الرئيس التنفيذي لشركة Anthropic، داريو أمودي، هو الذي قال في مايو من ذلك العام أن الذكاء الاصطناعي يمكن أن يحل محل ما يصل إلى 20٪ من العمال ذوي الياقات البيضاء. وأكد على هذا الادعاء في عام 2026، قائلا إن سيطرة الذكاء الاصطناعي على الوظائف من شأنها أن تطغى على قدرتنا على التكيف.
وقد استنكر الرئيس التنفيذي لشركة Nvidia Jensen Huang هذا الترويج للخوف في منتصف عام 2025، مدعيًا أن Anthropic أرادت أن تضع نفسها على أنها الشركة الوحيدة التي يمكنها تطوير الذكاء الاصطناعي بشكل مسؤول.
وهذا ليس شيئًا جديدًا في تسويق الذكاء الاصطناعي. كان OpenAI يفعل ذلك في عام 2019، قبل أن يكون ChatGPT مجرد وميض في عين Sam Altman، ولم يكن Dario Amodei قد غادر OpenAI بعد.
بالحديث عن OpenAI، بعد أيام من الكشف عن Mythos من Anthropic، كانت تعمل أيضًا على نموذج الذكاء الاصطناعي المتقدم للأمن السيبراني. كما أنه سيحد من طرح هذه الأداة القوية والمثيرة للقلق، أكسيوس التقارير. مع تطور النماذج، تصل إلى مستوى مماثل من القدرة، لذلك ليس من المستغرب أن يكون لدى OpenAI نموذج على مستوى Mythos أو نموذج مجاور ينتظره في الأجنحة.
الشعور والأمن
الذكاء الاصطناعي ليس واعيًا. إنها أشبه بغرفة صينية من تجربة جون سيرل الفكرية، ولكن حتى في ذلك الوقت، ليس لديها أي فهم. إنه لا يتذكر حقًا أي شيء بالمعنى البيولوجي؛ يمكنه فقط تذكر السياقات ووزن استجاباته بشكل مختلف بناءً على المدخلات السابقة. لذا، فإن ادعاءات الوعي والوعي ربما لا أساس لها من الصحة.
قد تكون نماذج الذكاء الاصطناعي جيدة في اكتشاف نقاط الضعف، وإذا تمكنت شركة Anthropic وغيرها من مطوري البرامج من العثور على الأخطاء وتصحيحها باستخدام الذكاء الاصطناعي، فهذه أخبار جيدة، وليست أخبارًا مخيفة.
وكما يوضح تحليل Red Hat لهذا الإصدار، فإن العديد من الأخطاء عبارة عن عيوب وظيفية ولا تشكل مصدر قلق أمني. ولكن حتى لو تمكن المتسللون من الاستفادة من أدوات الذكاء الاصطناعي في المستقبل للعثور على ثغرات ومن ثم استغلالها، فإن هذا لا يشكل سوى مصدر قلق إذا لم تستجب صناعة الأمن. الذي سوف.
لذا، من المؤكد أن الذكاء الاصطناعي يؤثر على الأمن. لقد كان بالفعل. وسوف تستمر في القيام بذلك. في حين أن Mythos قد تكون قادرة بطرق لم تكن موجودة في النماذج السابقة، يبدو أن هذا جزء من التسويق وجزء من الحقيقة. بالنسبة لبقيتنا، هذا مجرد نموذج آخر للذكاء الاصطناعي. بالنسبة إلى Anthropic، فهي فرصة لاكتساب المشاركة الذهنية والعقود المربحة المحتملة.

التعليقات