
يعد التشفير بمساعدة الذكاء الاصطناعي أو “التشفير الديناميكي” هو الاتجاه الذي سيطر على العام الماضي، لدرجة أنه تم اختياره ككلمة العام لعام 2025.
منذ أن صاغ المؤسس المشارك لشركة OpenAI هذا المصطلح، أندريه كابارتي، تم استمالة المطورين من خلال احتمال تقليل العمل “الضائع” في مجال البرمجة.
في حين أن ماجستير إدارة الأعمال (LLM) يمكنه التنبؤ ببناء الجملة، إلا أنه لا يمكنه فهم الأمن السيبراني. دلالات مثل المخاطر ليست في متناول أيديهم ونافذة السياق المحدودة – أو الذاكرة قصيرة المدى – تعني أن حاملي شهادة الماجستير في حالتهم الحالية قد تفوتهم الصورة الأكبر، بما في ذلك الثغرات الأمنية.
حتى أكبر النماذج لا يمكنها الاحتفاظ بنوع الذاكرة المطلوبة لفهم البيانات الخطيرة ولماذا.
مشكلة عدم حصانة كود الذكاء الاصطناعي
يمكن أن تبدو التعليمات البرمجية التي ينشئها الذكاء الاصطناعي، ظاهريًا، صحيحة وآمنة، إلا أن نقاط الضعف الدقيقة تكون مخفية دائمًا بداخلها.
يتمتع تدريب LLM بتاريخ في إعطاء الأولوية للدقة على الأمن السيبراني. في حين يتم بذل جهد كبير لتحسين الصحة، حيث تقوم النماذج الأحدث والأكبر الآن بتوليد تعليمات برمجية عالية الأداء، فإن الاهتمام أقل بكثير يوجه إلى ما إذا كان هذا الرمز آمنًا بالفعل.
المشكلة الأساسية هي أن المطورين لا يحتاجون إلى تحديد قيود الأمان في مطالبات الذكاء الاصطناعي الخاصة بهم للحصول على الكود الذي يريدونه.
على سبيل المثال، يمكن للمطور مطالبة النموذج بإنشاء استعلام قاعدة بيانات دون تحديد ما إذا كان يجب على التعليمات البرمجية إنشاء الاستعلام باستخدام عبارة معدة (آمنة) أو تسلسل سلسلة (غير آمن). ولذلك يبقى الاختيار للنموذج.
بالنسبة لبعض نقاط الضعف، قد لا يتمكن النموذج من تحديد المتغيرات المحددة التي تتطلب المعالجة (أي المتغيرات “الملوثة” بالبيانات التي يتحكم فيها المستخدم).
نقاط الضعف هذه ليست عرضية، ولكنها تنبع من قيود أساسية في كيفية فهم النماذج اللغوية الكبيرة للسياق والنية والمخاطر.
حدود فهم LLM – وماذا يعني ذلك بالنسبة للأمن
لقد توقف التقدم نحو التعليمات البرمجية الآمنة التي تم إنشاؤها بواسطة الذكاء الاصطناعي، حيث توصلت الأبحاث الحديثة إلى أن مقدمي خدمات LLM الرئيسيين لم يحققوا سوى تقدم أمني ضئيل أو معدوم على الرغم من التطوير المستمر عبر القطاع.
على سبيل المثال، انخفضت نماذج من Anthropic، وGoogle، وxAI، ضمن معدل نجاح أمني يتراوح بين 50 إلى 59 بالمائة، وهو معدل ضعيف بشكل ملحوظ بالنسبة للاعبين الكبار في مجال التكنولوجيا. ولكن لماذا لا يتحسن الأداء الأمني، حتى مع تحسن كتابة النماذج ودقتها؟
يكمن جزء كبير من الإجابة في بيانات التدريب. يتعلم طلاب LLM من خلال استهلاك كميات هائلة من البيانات والمعلومات من الإنترنت، والتي يحتوي الكثير منها على ثغرات أمنية مخفية أو لم يتم حلها.
على سبيل المثال، تتضمن مشاريع مثل WebGoat عمدًا أنماطًا غير آمنة لتعليم أمان تطبيقات الويب من خلال تمارين عملية مع نقاط الضعف المتعمدة. لم يتم تصنيف هذه البيانات على أنها آمنة أو غير آمنة، لذلك يتعامل النموذج مع كلا النوعين بنفس الطريقة. بالنسبة إلى الذكاء الاصطناعي، يعد استعلام قاعدة البيانات غير الآمنة أو الاستعلام الآمن مجرد طريقتين صالحتين لإكمال طلبك.
LLMs أيضًا لا تفصل البيانات عن التعليمات. وبدلاً من ذلك، يقومون ببساطة بمعالجة كل شيء كتدفق من الرموز المميزة. وهذا يفتح الباب أمام عمليات الحقن السريع، حيث يمكن للمهاجمين إدخال تعليمات ضارة إلى ما يبدو أنه إدخال مستخدم عادي. إذا لم يتمكن النموذج من معرفة الفرق، فمن الممكن خداعه للتصرف بطرق لم يقصدها المطور أبدًا.
من المهم أيضًا أن نفهم أن المخاطر الأمنية تظهر في طبقات مختلفة. تنبع بعض نقاط الضعف من النموذج نفسه، مع وجود عيوب في كيفية تفسير الذكاء الاصطناعي للمحتوى أو إنشائه.
وينشأ البعض الآخر في طبقة التطبيق، حيث يقوم المطورون بدمج LLM في الأنظمة الحقيقية. في هذه الحالات، تأتي المخاطر من كيفية تعامل النظام مع المدخلات الخارجية وأذونات المستخدم والتفاعلات مع المكونات الأخرى.
بالنسبة للمطورين، تتمتع أدوات الذكاء الاصطناعي التوليدية بالقدرة على إحداث تحول في الكفاءة، ولكن لا ينبغي استخدامها إلا كمساعدين لتعزيز الإنتاجية في مهام محددة، وليس كبديل للمهارات البشرية.
ومن خلال القيام بذلك، يجب على المطورين تطبيق نفس المستوى من التدقيق على المخاوف الأمنية مثل دقة الترميز. يجب التعامل مع كل اقتراح للذكاء الاصطناعي، بغض النظر عن مدى صقله، على أنه غير موثوق به حتى يتم إثبات أمانه. وهذا يعني التحقق من صحة كيفية التعامل مع مدخلات المستخدم، والتأكد من تنفيذ ممارسات مثل المصادقة والترخيص بشكل صحيح والافتراض دائمًا أن الذكاء الاصطناعي سيتخذ اختصارات.
يجب على المؤسسات أيضًا اعتماد أدوات “آمنة افتراضيًا” حول الذكاء الاصطناعي، لضمان تكامل الأمان منذ البداية. يتضمن ذلك التحليل الثابت في الوقت الفعلي الذي يشير إلى التعليمات البرمجية غير الآمنة لحظة إنشائها، وإنفاذ السياسات التي تمنع الالتزام بالأنماط غير الآمنة، وتنفيذ عمليات الحماية التي تقيد نموذج الذكاء الاصطناعي بالمكتبات وأنماط الترميز الآمنة المعروفة.
بدلاً من الاعتماد ببساطة على التدريب الحالي الذي يتمحور حول التعليمات البرمجية المكتوبة بواسطة الإنسان، يجب على المؤسسات اعتماد تدريب مخصص لمساعدة المطورين على التكيف مع هذا الواقع الجديد. يجب أن يغطي هذا التدريب المتخصص كيفية التعرف على أوضاع فشل LLM الشائعة، وكيفية فهم الأساليب الضارة مثل الحقن الفوري أو تسرب البيانات، وربما الأهم من ذلك، معرفة متى يجب عدم استخدام الذكاء الاصطناعي، خاصة في المجالات عالية المخاطر، مثل التشفير.
ولا يزال الأمن يتطلب الحكم البشري
يمكن للذكاء الاصطناعي التوليدي بالتأكيد تسريع عملية التسليم ورفع مستوى القدرات، ولكنه يزيد أيضًا من المخاطر. تحتاج الصناعة إلى قبول حقيقة غير مريحة – مع استمرار ماجستير إدارة الأعمال (LLM) في أن تصبح أسرع وأكثر طلاقة وأكثر فائدة، لا يمكن الاعتماد عليها لإنشاء تعليمات برمجية آمنة. لا يمكنهم التفكير في نماذج التهديد، أو الحكم على النوايا، أو إدراك متى يخلق المنطق غير الضار آثارًا جانبية خطيرة.
إذا لم تضع المؤسسات الضمانات المناسبة، والأدوات الآمنة افتراضيًا، والإشراف البشري، فإنها تخاطر بدفع نقاط الضعف الخطيرة على نطاق واسع وبسرعة.
في نهاية المطاف، غيّر الذكاء الاصطناعي الطريقة التي نبني بها البرمجيات. ولكن ما لم نغير كيفية تأمينها، فإننا ببساطة نمنح مجرمي الإنترنت مساحة أكبر للهجوم، ويتم تقديمها بكفاءة أكبر من أي وقت مضى.
تحقق من قائمتنا لأفضل المنصات بدون كود.

التعليقات