
لقد مرت ثلاث سنوات فقط منذ إطلاق ChatGPT الذي حظي بإشادة شعبية كبيرة. لكن الصناعة تتطلع بالفعل إلى الموجة الكبيرة التالية من الابتكار: الذكاء الاصطناعي الوكيل.
وكما هو متوقع، أصبحت OpenAI في الطليعة مرة أخرى من خلال عرض وكيل ChatGPT الجديد، والذي يعد “بالتعامل مع المهام من البداية إلى النهاية” نيابة عن مستخدميها. ولسوء الحظ، مع قدر أكبر من الاستقلالية تأتي مخاطر أكبر.
باحث أول في مجال التهديدات في تريند مايكرو.
يتمثل التحدي الذي يواجه فرق تكنولوجيا المعلومات والأمن في الشركات في تمكين مستخدميها من تسخير التكنولوجيا، دون تعريض الأعمال لجيل جديد من التهديدات.
ولحسن الحظ، لديهم بالفعل نهج جاهز لمساعدتهم على القيام بذلك: الثقة المعدومة.
مكاسب ضخمة ولكن المخاطر الناشئة
تقدم أنظمة الذكاء الاصطناعي الوكيل قفزة كبيرة للأمام من روبوتات الدردشة التوليدية للذكاء الاصطناعي (GenAI).
في حين أن الأخير يقوم بإنشاء وتلخيص المحتوى بشكل تفاعلي بناءً على المطالبات، فإن الأول مصمم للتخطيط والتفكير والتصرف بشكل استباقي لإكمال المهام المعقدة ومتعددة المراحل. يمكن لـ Agentic AI تعديل خططها بسرعة عند تقديم معلومات جديدة.
ليس من الصعب رؤية الإنتاجية والكفاءة وفوائد التكلفة الضخمة المحتملة المرتبطة بالتكنولوجيا. وتتوقع جارتنر أنه بحلول عام 2029، ستقوم “بحل 80% من مشكلات خدمة العملاء الشائعة بشكل مستقل دون تدخل بشري، مما يؤدي إلى انخفاض بنسبة 30% في التكاليف التشغيلية”.
ومع ذلك، فإن نفس القدرات التي تجعل الذكاء الاصطناعي الوكيل مثيرًا جدًا للشركات يجب أن تكون أيضًا مدعاة للقلق.
ونظرًا لقلة الرقابة، يمكن للجهات الخبيثة مهاجمة وتخريب تصرفات وكيل الذكاء الاصطناعي دون رفع أي إشارات حمراء للمستخدمين.
ولأنه قادر على اتخاذ قرارات ذات عواقب لا رجعة فيها، مثل حذف الملفات أو إرسال رسائل البريد الإلكتروني إلى المستلم غير الصحيح، فقد يحدث المزيد من الضرر ما لم يتم تضمين وسائل الحماية.
بالإضافة إلى ذلك، نظرًا لأن الوكلاء يمكنهم التخطيط والتفكير عبر العديد من المجالات، فهناك المزيد من الفرص أمام الخصوم للتلاعب بهم، على سبيل المثال عن طريق الحقن الفوري غير المباشر. ويمكن القيام بذلك ببساطة عن طريق تضمين مطالبة ضارة في صفحة الويب التي يزورها الوكيل.
ونظرًا لأن الوكلاء يندمجون بشكل عميق في النظام البيئي الرقمي الأوسع، فهناك احتمال أكبر لاختراق الحسابات والمعلومات الحساسة للغاية. ولأنها يمكن أن تتراكم معرفة عميقة بسلوك مستخدميها، فمن المحتمل أن تكون هناك مخاطر كبيرة تتعلق بالخصوصية.
لماذا تعتبر ضوابط الوصول مهمة
يجب أن تبدأ معالجة هذه التحديات بإدارة الهوية والوصول (IAM). إذا كانت المؤسسات ستقوم بإنشاء قوة عاملة رقمية فعلية تتألف من وكلاء، فإنها تحتاج إلى إدارة الهويات وبيانات الاعتماد والأذونات اللازمة للقيام بهذا العمل.
ومع ذلك، فإن معظم الوكلاء اليوم هم أكثر عمومية من المتخصصين. يعد وكيل ChatGPT مثالًا رائعًا: يمكنه جدولة الاجتماعات وإرسال رسائل البريد الإلكتروني والتفاعل مع مواقع الويب وغير ذلك الكثير.
هذه المرونة هي ما يجعلها أداة قوية. ولكنه يزيد أيضًا من صعوبة تطبيق النماذج التقليدية للتحكم في الوصول، والتي تم بناؤها حول أدوار بشرية ذات مسؤوليات واضحة.
إذا تم التلاعب بالعميل العمومي من خلال هجوم الحقن الفوري غير المباشر، فقد تكون حقوق الوصول المفرطة في التساهل نقطة ضعف، مما يمنح المهاجم إمكانية الوصول على نطاق واسع إلى مجموعة من الأنظمة الحساسة. ولهذا السبب نحتاج إلى إعادة التفكير في ضوابط الوصول لعصر الذكاء الاصطناعي الوكيل. باختصار، نحن بحاجة إلى اتباع شعار الثقة المعدومة: “لا تثق أبدًا، تحقق دائمًا”.
إعادة تصور الثقة المعدومة
كيف تبدو الثقة المعدومة في بيئة الذكاء الاصطناعي الفاعلية؟ أولاً، افترض أن الوكلاء سينفذون إجراءات غير مقصودة ويصعب التنبؤ بها، وهو أمر تعترف به شركة OpenAI. وتوقف عن التفكير في وكلاء الذكاء الاصطناعي باعتبارهم امتدادات لحسابات المستخدمين الحالية. وبدلاً من ذلك، تعامل معهم باعتبارهم هويات منفصلة، مع بيانات الاعتماد والأذونات الخاصة بهم.
يجب فرض إدارة الوصول على مستوى الوكيل وعلى مستوى الأداة – أي التحكم في الموارد التي يمكن للوكلاء الوصول إليها. ستضمن المزيد من عناصر التحكم الدقيقة مثل هذه بقاء الأذونات متوافقة مع كل مهمة.
فكر في الأمر على أنه “تقسيم”، على الرغم من أنه ليس بالمعنى التقليدي لتجزئة الشبكة من خلال الثقة المعدومة
بدلاً من ذلك، نحن هنا ننظر إلى تقييد أذونات الوكلاء بحيث لا يتمكنون إلا من الوصول إلى الأنظمة والبيانات التي يحتاجونها للقيام بعملهم، وليس أكثر من ذلك. في بعض الحالات، قد يكون من المفيد أيضًا تطبيق أذونات محددة بوقت.
التالي، المصادقة متعددة العوامل (MFA). لسوء الحظ، لا يُترجم أسلوب MFA التقليدي بشكل جيد إلى الوكلاء. إذا تم اختراق الوكيل، فإن طلب عامل ثانٍ منه يضيف القليل من الأمان.
وبدلا من ذلك، يمكن للرقابة البشرية أن تكون بمثابة طبقة ثانية من التحقق، وخاصة بالنسبة للإجراءات عالية المخاطر. ويجب موازنة ذلك مع خطر إرهاق الموافقة: إذا قام الوكلاء بتشغيل عدد كبير جدًا من التأكيدات، فقد يبدأ المستخدمون في الموافقة على الإجراءات بشكل انعكاسي.
تحتاج المنظمات أيضًا إلى رؤية واضحة لما يفعله الوكلاء. لذا قم بإعداد نوع من النظام لتسجيل تصرفاتهم ومراقبة السلوك غير المعتاد. ويعكس هذا أيضًا عنصرًا أساسيًا في الثقة المعدومة وسيكون ضروريًا لكل من الأمن والمساءلة. لا تزال الأيام الأولى لـ Agentic AI.
ولكن إذا أرادت المؤسسات الاستفادة من قدرة التكنولوجيا على اتخاذ الإجراءات بأقل قدر من الإشراف، فيجب عليها أن تكون واثقة من إدارة المخاطر بشكل مناسب. أفضل طريقة للقيام بذلك هي عدم الثقة بأي شيء بشكل افتراضي.
لقد عرضنا أفضل دورة للأمن السيبراني عبر الإنترنت.
تم إنتاج هذه المقالة كجزء من قناة Expert Insights التابعة لـ TechRadarPro حيث نعرض أفضل وألمع العقول في صناعة التكنولوجيا اليوم. الآراء الواردة هنا هي آراء المؤلف وليست بالضرورة آراء TechRadarPro أو Future plc. إذا كنت مهتمًا بالمساهمة، اكتشف المزيد هنا: https://www.techradar.com/news/submit-your-story-to-techradar-pro

التعليقات