
يعد وكلاء الذكاء الاصطناعي الذين يعملون دائمًا مثل OpenClaw خطوة واعدة نحو جيل جديد من المساعدين الرقميين الأقوياء القادرين على التعامل مع “إدارة الحياة” اليومية للمستخدمين.
ولكن إذا كنت تريد من أحد عملاء الذكاء الاصطناعي أن يحجز لك طاولة في مطعم، أو الرد على رسائل البريد الإلكتروني الخاصة بك، أو القيام بالتسوق، أو تحديد موعد مع الطبيب، فقد تفتح حياتك الرقمية لمستوى جديد مخيف من المخاطر.
المؤسس والرئيس التنفيذي لشركة Emergent.
قام OpenClaw (المعروف سابقًا باسم Moltbot وClawdbot) بإشعال النار في الإنترنت الشهر الماضي، حيث جمع أكثر من 100000 نجم GitHub في أسبوع (وهو أمر لم يُسمع به فعليًا).
يستمر المقال أدناه
إن نجاحها بين عشية وضحاها (والاستيعاب اللاحق في OpenAI من Sam Altman) يعكس الإثارة الأوسع حول إمكانية قيام وكلاء الذكاء الاصطناعي بالدخول في المرحلة التالية لتطبيقات الذكاء الاصطناعي.
ولكن مع اندفاع المستخدمين المتميزين والشركات الصغيرة والمتوسطة إلى نشر وكلاء الذكاء الاصطناعي الدائمين، ومنحهم القدرة على تصفح الويب وإدارة الملفات والاتصال بصناديق البريد الوارد والتفاعل مع الوكلاء الآخرين نيابة عنهم، تدق أجراس الإنذار في مجال الأمن السيبراني.
لماذا يقوم الوكلاء الدائمون بإنشاء ملف تعريف مخاطر مختلف تمامًا عن برامج الدردشة الآلية؟
في الوقت الحالي، تقوم الغالبية العظمى من مستخدمي الذكاء الاصطناعي بذلك من خلال جلسات الدردشة الآلية، حيث تكون أنظمة المستخدم الخاصة محمية بالطبيعة المقيدة للتفاعل. يمكنك إضافة بياناتك إلى النموذج والحصول على إجابتك وإغلاق النافذة.
يعد عملاء الذكاء الاصطناعي الذين يعملون دائمًا أمرًا مختلفًا تمامًا.
تتمثل نقطة البيع وراء OpenClaw وغيره من وكلاء الذكاء الاصطناعي في قدرتهم على أداء مهام في العالم الحقيقي نيابة عن المستخدمين. قم بإعداد OpenClaw ليتم تشغيله محليًا على جهاز الكمبيوتر الخاص بك، وسيكون قادرًا على قراءة الملفات وكتابتها وتنفيذ البرامج النصية والتفاعل مع الخدمات الخارجية، بما في ذلك وكلاء الذكاء الاصطناعي الآخرين.
هذا المستوى من التكامل، الذي يؤدي إلى جلب وكيل الذكاء الاصطناعي إلى طبقة نظام التشغيل، مع ما يصل إلى الوصول إلى الجذر، هو ما يجعل عملاء الذكاء الاصطناعي مثل OpenClaw يعملون. كما أنه يعرض للخطر أمن النظام بأكمله.
غالبًا ما تكون الفرق الصغيرة والمستخدمون الفرديون المتميزون وكلاء يستضيفون أنفسهم، ويقومون بتوصيلهم إلى Gmail وSlack وAWS وGitHub وStripe، وينشرونهم بأقل قدر من الاحتكاك. لكن هذا “الحد الأدنى من الاحتكاك” يأتي على حساب الحد الأدنى من حواجز الحماية.
وهذا ليس نقدًا لأي إطار عمل بعينه، ولكنه علامة على أن النظام البيئي يتحرك بشكل أسرع من نموذج الأمان الخاص به. يمكن للوكيل الذي لديه أذونات زائدة أن يقوم بحذف الملفات المهمة أو تعديلها، أو تسريب البيانات الحساسة من خلال السجلات أو الذاكرة، أو النشر على وسائل التواصل الاجتماعي دون مراجعة، أو تشغيل استدعاءات أو معاملات واجهة برمجة التطبيقات (API) المكلفة.
يمكن لثغرة أمنية واحدة أن تكشف الحياة الرقمية بأكملها للمستخدم.
تمثل الأنظمة البيئية من وكيل إلى وكيل نوعًا جديدًا من سطح الهجوم، مما يؤدي إلى تفاقم التهديد بالحقن الفوري. وفقًا لأبحاث حديثة أجرتها مؤسسة Gartner، من المتوقع أن تستغل أكثر من 50% من هجمات الأمن السيبراني الناجحة ضد عملاء الذكاء الاصطناعي في العام المقبل مشكلات التحكم في الوصول.
الحقن الفوري، وهو نوع من هجمات الهندسة الاجتماعية التي تستهدف الذكاء الاصطناعي على وجه التحديد، ينطوي على طرف ثالث لتضليل نموذج الذكاء الاصطناعي عن طريق حقن تعليمات ضارة في سياق المحادثة.
بنفس الطريقة التي تحاول بها رسائل البريد الإلكتروني التصيدية خداع الأشخاص للتخلي عن معلومات حساسة، فإن “الحقن الفوري يحاول خداع الذكاء الاصطناعي للقيام بشيء لم تطلبه أنت”، وفقًا لمنشور مدونة OpenAI.
يمكن أن يكون لهذا النهج، جنبًا إلى جنب مع القوة المتضخمة لعميل الذكاء الاصطناعي، تأثير أكثر عمقًا من جعل روبوت الدردشة يعطي إجابة خاطئة لسؤال ما.
حواجز حماية عملية
في قطاع تحدده فرق التطوير الصغيرة، ونهج DIY، والتركيز على السرعة بدلاً من السلامة، يجب على الأشخاص الذين يقومون بتجربة العوامل المستقلة اليوم أن يتخذوا خطوات عملية للحد من المخاطر المرتبطة بهذه التقنيات الجديدة.
إنشاء حسابات مخصصة: لا تمنح الوكلاء إمكانية الوصول إلى صندوق الوارد الأساسي أو بيانات اعتماد السحابة الجذرية. استخدم حسابات الخدمة المحددة.
بيئات القطاع: فصل العوامل التجريبية عن أنظمة الإنتاج.
تدوير المفاتيح بشكل متكرر: افترض أن بيانات الاعتماد سوف تتسرب في النهاية.
أعد تشكيل الفريق الأحمر الخاص بك: حاول سيناريوهات الحقن الفوري وإساءة استخدام الأداة لترى كيف يتصرف الوكيل.
تعطيل التنفيذ التلقائي للأدوات عالية المخاطر: يتطلب تأكيدًا للإجراءات المالية أو الإدارية أو المدمرة.
تدقيق الحالات المكشوفة: تأكد من عدم إمكانية الوصول إلى وكيلك المستضاف ذاتيًا من الإنترنت العام دون مصادقة.
قبل كل شيء، راقب عملاء الذكاء الاصطناعي لديك. قد يبدو الأمر وكأنه يقلل من فعالية الأداة، والهدف منها ظاهريًا هو قضاء وقت أقل في رعاية حياتك الرقمية.
ولكن، إذا كنت لا تثق بنسبة 100% في الموظف البشري الجديد الذي يتمتع بإمكانية الوصول إلى حساباتك المصرفية ووجودك على وسائل التواصل الاجتماعي، فإن وكيل الذكاء الاصطناعي الذي يعمل دائمًا يستحق مستوى مماثل من التدقيق.
إن Agentic AI يسير على الطريق الصحيح لتشكيل العقد القادم من حيث كيفية تفكيرنا في الإنتاجية. ستكون القدرة على تفويض مهام سير العمل المعقدة ومتعددة الخطوات إلى الوكلاء الافتراضيين بمثابة تحويل. لكن الاستقلالية من دون حواجز الحماية اللازمة هي بمثابة التعرض، وليس الابتكار.
لأنه، على عكس حلول الذكاء الاصطناعي التي سبقتهم، لا يقوم وكلاء الذكاء الاصطناعي فقط بالإجابة على أسئلتك أو صياغة رسائل البريد الإلكتروني الخاصة بك للمراجعة. إنهم يتصرفون نيابة عنك. في الوقت الحالي، هم على بعد نقطة ضعف واحدة فقط من التصرف على ثغرة شخص آخر.
لقد عرضنا أفضل برامج حماية نقطة النهاية.
تم إنتاج هذه المقالة كجزء من قناة Expert Insights التابعة لـ TechRadarPro حيث نعرض أفضل وألمع العقول في صناعة التكنولوجيا اليوم. الآراء الواردة هنا هي آراء المؤلف وليست بالضرورة آراء TechRadarPro أو Future plc. إذا كنت مهتمًا بالمساهمة، اكتشف المزيد هنا: https://www.techradar.com/news/submit-your-story-to-techradar-pro

التعليقات