
وبينما يتسابق صناع السياسات لتنظيم الذكاء الاصطناعي، ينشأ شكل أكثر حميمية من الذكاء الاصطناعي بهدوء، ولكن بشكل عميق. الثورة القادمة في التكنولوجيا لن تأتي كتطبيق أو خوارزمية. سوف يسير نحونا، وينظر في أعيننا، ويسأل كيف يمكن أن يساعدنا.
الرئيس التنفيذي لمعهد الابتكار التكنولوجي.
ويتوقع بنك جولدمان ساكس أن تتجاوز مبيعات المستهلكين مليون وحدة بحلول عام 2035، وهي إشارة إلى أن هذا المستقبل ليس تخمينيًا، ولكنه يقترب بسرعة. عندما تصبح أشكالهم مألوفة، فإن وجودهم سيختبر واحدة من أقدم غرائز البشرية: الرغبة في الخصوصية.
عصر جديد من الثقة
حتى الآن، كان وجودنا الرقمي يتجلى من خلال الشاشات وأجهزة الاستشعار التي يمكننا إيقاف تشغيلها. هاتف ينزلق في الجيب. مكبر صوت ذكي يوضع بهدوء على الرف. لكن الإنسان مختلف. فهو يلاحظ ويتعلم ويفكر ويتصرف بشكل مستمر.
يمكنه قراءة النغمة والوضعية والعاطفة، والتقاط بيانات تتجاوز بكثير ما يمكن أن يسجله الميكروفون أو الكاميرا. في عصر الكائنات البشرية، لن تعد الخصوصية تعني ببساطة حماية ما نقوله. سيعني ذلك تحديد ما يُسمح للآلات بمعرفته عن هويتنا.
ويتطلب هذا التحول نوعا جديدا من الثقة. لعقود من الزمن، طلبت شركات التكنولوجيا “موافقتنا” من خلال نماذج مطولة وبنود مخفية. ومع ذلك، لا يمكن لأي مربع اختيار أن يوضح مدى تعقيد التفاعل مع روبوت التعلم والتكيف.
عندما يساعد الروبوت مريضًا مسنًا على الوقوف، يجب عليه تحليل وضعيته والتنبؤ بالتوازن واكتشاف التردد. كل إيماءة تنتج بيانات حميمة. لكن من يملك تلك اللحظات العابرة؛ المريض أم المستشفى أم مبتكر الروبوت؟ وكيف يمكننا التأكد من أن هذه البيانات تخدم كرامة الإنسان وليس الراحة وحدها؟
تقنيات الحفاظ على الخصوصية
تم إنشاء قوانين الخصوصية الحالية للملفات، وليس الوجوه، للتخزين الثابت، وليس التفاعل الديناميكي. مع الكائنات البشرية، تصبح الخصوصية سلسة، ويتم التفاوض عليها في الوقت الفعلي من خلال الحركة والقرب والسياق.
وسوف يحتاج صناع السياسات إلى أطر تنظيمية قابلة للتكيف تتطور بنفس سرعة تطور هذه الأنظمة، بحيث تتضمن تقييمات مستمرة للمخاطر ومبادئ التصميم الأخلاقي منذ البداية. هذه هي الخصوصية حسب الهندسة المعمارية، والتقدير الهندسي بحيث لا تكون اختيارية، بل تلقائية.
وفي قلب هذه البنية يكمن التشفير وبروتوكولات التشفير، وهو العلم الذي يجعل الخصوصية قابلة للتنفيذ من خلال التصميم.
إنها تمكن الروبوتات البشرية من التعلم والاستجابة للاحتياجات البشرية دون الكشف عن البيانات الأساسية. وبدلاً من الثقة بأن المعلومات الحساسة لن يتم إساءة استخدامها، تضمن تقنيات التشفير عدم إمكانية الوصول إليها في المقام الأول. وهذا هو الفرق بين الوعود السياسية والضمانات الرياضية.
وفي عالم حيث تقوم الكائنات البشرية بالمراقبة والتفسير والتصرف بشكل مستمر، فإن مثل هذه الضمانات ضرورية. ومن الممكن أن تعمل تقنيات التشفير والحفاظ على الخصوصية على تحويل النوايا الأخلاقية إلى ضمانات تشغيلية، مما يؤدي إلى ترسيخ الثقة في الكود نفسه.
تقدم هندسة الخصوصية الحديثة بالفعل أدوات لهذه الرؤية. تسمح تقنيات مثل التعلم الموحد، والتشفير المتماثل، والحساب الآمن متعدد الأطراف لأنظمة الذكاء الاصطناعي بالتعلم من البيانات المحلية دون الكشف عنها.
وبالتالي يمكن للروبوت أن يحسن مساعدته بمرور الوقت مع الاحتفاظ بالمعلومات الحساسة داخل المجال المشفر الخاص به. الخصوصية، بهذا المعنى، ليست مجرد قيمة اجتماعية، بل هي نظام علمي يتقدم بالتوازي مع الروبوتات.
ومع ذلك، فإن الكود الكامن وراء الكائنات البشرية يجب أن يعكس أكثر من مجرد وظيفة تقنية، بل يجب أن يجسد الأعراف الاجتماعية. في العديد من الثقافات، تشير الإشارات مثل الوضعية والنظرة والقرب إلى الاحترام أو التطفل.
يجب أن تكون الروبوتات التي تتحرك بيننا متناغمة ليس فقط مع خصوصيتنا، بل أيضًا مع عاداتنا وحدودنا وراحتنا العاطفية. ولن تعتمد الثقة على ما تستطيع الآلات أن تفعله فحسب، بل على مدى الكيفية التي تفعل بها ذلك الأمر برشاقة واحترام.
إذا قمنا بدمج الخصوصية والكرامة في قلب الأنظمة البشرية، من خلال كل من الكود والسلوك، فإن هذه الآلات يمكن أن تساعدنا في استعادة السيطرة على البيانات التي تتدفق اليوم دون رادع عبر المنصات الرقمية.
يمكن للرعاية البشرية أن تسمح للأفراد المسنين بالعيش بشكل مستقل دون إشراف بشري مستمر. يمكن للمعلم الذي يشبه الإنسان أن يحافظ على بيانات التعلم الخاصة بالطفل أكثر أمانًا من النظام الأساسي القائم على السحابة من خلال معالجتها محليًا. والهدف ليس رفض هذه التكنولوجيات، بل توجيهها نحو غايات إنسانية وشفافة وأخلاقية.
الاحترام والتقدير والرعاية
كعالم وباحث، أرى الروبوتات كمرآة، لا تعكس طموحنا الهندسي فحسب، بل تعكس خيالنا الأخلاقي. في معهد الابتكار التكنولوجي، نقوم ببناء ذكاء اصطناعي مادي يجب أن يتعامل مع العالم بكل تعقيداته.
وهذا يعني أن التصميم ليس من أجل الوظيفة فحسب، بل من أجل الاحترام والتقدير والرعاية. وبينما نقوم بتعليم الآلات كيفية إدراكنا، فإننا نعيد أيضًا – عن قصد – تعريف ما يعنيه أن تكون مرئيًا حقًا.
والمهمة الملقاة على عاتق صناع السياسات والعلماء والمواطنين تتلخص في الانتقال من رد الفعل إلى الترقب، وكتابة قواعد التعايش قبل أن تصل الآلات إلى عتبة أبوابنا. الخصوصية، التي كانت ذات يوم اهتمامًا شخصيًا، يجب أن تصبح الآن مبدأ تصميم مشترك.
تصل الكائنات البشرية إلى لحظة حاسمة بالنسبة للمجتمع. إن ظهورهم سوف يختبر قدرتنا على التحكم في التكنولوجيا من خلال البصيرة والأخلاق والرحمة.
إذا نجحنا، فسوف نبني مستقبلا حيث يحمي الذكاء الاصطناعي المادي الإمكانات البشرية، بدلا من التضحية بها؛ إثبات أن الابتكار والنزاهة يمكن أن يتعايشا من خلال التصميم.
لقد أبرزنا أفضل برامج الأتمتة.
تم إنتاج هذه المقالة كجزء من قناة Expert Insights التابعة لـ TechRadarPro حيث نعرض أفضل وألمع العقول في صناعة التكنولوجيا اليوم. الآراء الواردة هنا هي آراء المؤلف وليست بالضرورة آراء TechRadarPro أو Future plc. إذا كنت مهتمًا بالمساهمة، اكتشف المزيد هنا: https://www.techradar.com/news/submit-your-story-to-techradar-pro

التعليقات