
في معظم الصناعات، تدور المناقشات حول الذكاء الاصطناعي حول أربعة مواضيع: الأخلاق، والعائد على الاستثمار، ومخاطر استيلاء الآلات على الوظائف البشرية، وتزايد الطلب على الطاقة. أما في مجال الأمن السيبراني، فالصورة مختلفة.
هنا، أصبح الذكاء الاصطناعي بالفعل سلاحًا فعالاً للمهاجمين الذي يغذي حملات برامج الفدية ويمكّن الأدوات الضارة من كتابة التعليمات البرمجية الخاصة بها، وتجاوز اختبارات CAPTCHA، وشن هجمات DDoS المدمرة بشكل متزايد.
لقد أثبت الذكاء الاصطناعي وجوده بقوة كجزء من مجموعة أدوات المجرمين الإلكترونيين. تظهر الأبحاث التي أجراها معهد ماساتشوستس للتكنولوجيا سلون أنه في الفترة 2023-2024، اعتمدت 80% من هجمات برامج الفدية بالفعل على الذكاء الاصطناعي بشكل ما. سريعًا حتى عام 2025، وهذا الاتجاه يتسارع.
النماذج المتخصصة مثل GhostGPT، التي تم تجريدها من الضمانات الأخلاقية، أصبحت الآن متاحة بسهولة لجميع أنواع أنشطة المجرمين الإلكترونيين بدءًا من كتابة رسائل البريد الإلكتروني التصيدية وحتى إنشاء تعليمات برمجية ضارة وإنشاء مواقع ويب ضارة.
تستخدم الروبوتات مثل AkiraBot الذكاء الاصطناعي لتجاوز اختبار CAPTCHA وإغراق المواقع بالبريد العشوائي. وفي أواخر أغسطس 2025، كشف باحثو “إسيت” عن PromptLock، وهو أول برنامج فدية مكتوب بواسطة الذكاء الاصطناعي، مما يوضح كيف يمكن الآن إنشاء تعليمات برمجية ضارة بسرعة بواسطة نموذج لغة كبير (LLM)، بدلاً من تشفيرها بشكل ثابت إلى ملف قابل للتنفيذ بواسطة مؤلفين بشريين.
توضح هذه الأمثلة أن المهاجمين يعتمدون الذكاء الاصطناعي على نطاق واسع. وهذا يجعل آليات الدفاع التقليدية أقل فعالية بكثير. وحماية DDoS ليست استثناء.
لماذا هذا مهم بالنسبة لـ DDoS
تتخذ هجمات DDoS أشكالًا عديدة، ولكن أصعبها في التخفيف من حدتها هي هجمات طبقة التطبيقات (L7). إنها تطغى على خوادم الويب بحركة مرور تبدو شرعية.
إن الاستخدام شبه العالمي لـ HTTPS على مواقع الويب الحديثة يزيد من صعوبة فصل الطلبات الضارة عن نشاط المستخدم الحقيقي، نظرًا لأن كل حركة المرور تقريبًا أصبحت الآن مشفرة.
لسنوات عديدة، كان الإجراء المضاد الأساسي هو فصل البشر عن الروبوتات وحظر الأخيرة.
هذه هي الطريقة التي انتشرت بها اختبارات CAPTCHA (اختصار لـ “اختبار تورينج العام المؤتمت بالكامل للتمييز بين أجهزة الكمبيوتر والبشر”)، أو النقر على مربع، أو كتابة نص مشوه، أو تحديد إشارات المرور وصنابير إطفاء الحرائق.
كان الافتراض الأساسي هو أن البشر يمكنهم اجتياز مثل هذه التحديات، في حين أن الروبوتات ستفشل.
هذا الافتراض لم يعد ذا صلة. يمكن الآن للبرامج الضارة المجهزة بالذكاء الاصطناعي حل اختبارات CAPTCHA والاندماج في حركة المرور المشروعة، والمساهمة بصمت في شبكات الروبوت.
وهذا ما تؤكده الدراسات، بما في ذلك بحث العام الماضي الذي أجرته ETH Zurich. أنشأ العلماء نموذج الذكاء الاصطناعي الذي حل إصدار Google reCAPTCHAv2 الشهير من CAPTCHA (الذي يتضمن الدراجات والجسور وما إلى ذلك) وكذلك البشر.
ببساطة، لم يعد بإمكان المدافعين التمييز بين البشر والروبوتات بشكل موثوق، حيث أصبح الذكاء الاصطناعي متقدمًا بما يكفي لتقليد سلوك المستخدم البشري العادي.
وهذا يزيد من المخاطر بالنسبة لجميع المنظمات، ولكن التأثير سيكون أكثر حدة على الشركات الكبيرة. وبالنسبة لهم، فإن المخاطر تتجاوز بكثير التعطيل المؤقت.
يمكن أن يؤدي هجوم DDoS الناجح المدعوم بالذكاء الاصطناعي إلى إلحاق ضرر جسيم بالسمعة، وفقدان ثقة العملاء، وبالنسبة للشركات المتداولة علنًا، فقد يؤدي ذلك إلى زعزعة ثقة المستثمرين وحتى انخفاض أسعار الأسهم.
من اختبارات CAPTCHA إلى التصفية القائمة على النوايا
إذا لم يعد التمييز بين الروبوتات والبشر قابلاً للتطبيق، فما الذي سيحل محلها؟
الجواب هو التصفية على أساس النية. فبدلاً من التساؤل عما إذا كان الزائر إنسانًا أم آلة، يقوم هذا النهج بتقييم سلوكه: ما الذي يفعله على الموقع وما إذا كانت نواياه منتجة أم مدمرة؟
هل يتوافق نشاطهم مع سلوك العملاء الحقيقي في الموقع مثل قراءة المحتوى، وإكمال المعاملات، وطلب كميات معقولة من البيانات؟ أم أنها تشبه عملية طحن الصفحات التي لا معنى لها، والمصممة فقط لتوليد التحميل؟
ومن خلال تحويل التركيز من اختبارات الذكاء، التي لم تعد موثوقة، إلى النوايا السلوكية، يكتسب المدافعون فرصة لاكتشاف الروبوتات التي تعتمد على الذكاء الاصطناعي حتى عندما تحاكي المستخدمين البشر بشكل مقنع.
يعد هذا التحول الآن بمثابة خط أساس للدفاع ضد هجمات DDoS لطبقة التطبيقات في عصر البرامج الضارة التي تدعم الذكاء الاصطناعي، ويجب على المؤسسات التكيف بسرعة. بالنسبة للمؤسسات، تتمثل الأولوية في الاستثمار في منصات تخفيف هجمات DDoS التي تدعم بالفعل التصفية القائمة على النوايا، وليس فقط الكشف المستند إلى اختبار CAPTCHA.
ويتعين عليهم أيضًا نشر مراقبة متعددة الطبقات عبر التطبيقات والشبكات ونقاط النهاية لاكتشاف الحالات الشاذة مبكرًا، وإجراء اختبارات ضغط منتظمة تحاكي سيناريوهات DDoS المعززة بالذكاء الاصطناعي لضمان المرونة في ظل ظروف العالم الحقيقي.
وفي الوقت نفسه، من المهم ملاحظة أن معظم موفري خدمات الأمان المُدارة ما زالوا لا يقدمون التصفية المستندة إلى النية.
وهذا يعني أنه يجب على الشركات تقييم البائعين بعناية للتأكد من أن دفاعاتهم كافية لمواجهة الجيل الجديد من التهديدات.
وأخيرًا، يجب على كل مؤسسة أن تحتفظ بدليل واضح للاستجابة للحوادث يحدد المسؤوليات ويحدد كيفية التواصل مع العملاء في حالة التوقف عن العمل.
هل أنتم مستعدون للتحدي الجديد؟
لقد كان الأمن السيبراني منذ فترة طويلة على حافة التحول.
وفي حين أن التأثير السلبي للتبني السريع للذكاء الاصطناعي لا يزال قيد المناقشة في كل مكان آخر، فقد أصبح هنا بالفعل تهديدًا واضحًا.
وهو يجبر الشركات على إعادة التفكير في كيفية حماية أنظمتها، واختبار مرونتها، والاستعداد للموجة التالية من الهجمات التي ستكون بلا شك مدفوعة بالذكاء الاصطناعي.
سيكون اختيار أدوات الأمان ومقدمي الخدمات المناسبين أمرًا بالغ الأهمية للاستعداد لهذا الواقع الجديد.
نحن نصنف أفضل برامج مكافحة الفيروسات.
تم إنتاج هذه المقالة كجزء من قناة Expert Insights التابعة لـ TechRadarPro حيث نعرض أفضل وألمع العقول في صناعة التكنولوجيا اليوم. الآراء الواردة هنا هي آراء المؤلف وليست بالضرورة آراء TechRadarPro أو Future plc. إذا كنت مهتمًا بالمساهمة، اكتشف المزيد هنا: https://www.techradar.com/news/submit-your-story-to-techradar-pro

التعليقات