
مع بداية عام جديد، سألني الكثيرون عن توقعاتي بشأن الخصوصية، خاصة وأن استخدام المؤسسات للذكاء الاصطناعي ومعالجة البيانات السحابية قد ارتفع بشكل كبير مؤخرًا. تركز إجابتي على ما أعتقد أنه سيكون تغييرًا كبيرًا في كيفية النظر إلى الخصوصية والبيانات السرية.
تتمتع سلاسل الكتل العامة بالشفافية والثقة التي وعدت بها منذ فترة طويلة، ولكن انفتاحها جعلها أيضًا غير عملية لتطبيقات العالم الحقيقي مثل كشوف المرتبات، والهوية، والتمويل المؤسسي؛ وهي معضلة أحب أن أسميها “مفارقة الشفافية”.
ولكن على مدى العام التالي، سوف يبدأ حل هذه المقايضة ــ التي أعتقد أنها العائق الأكبر أمام التبني السائد ــ وهذا بدوره سوف ينقل السرية من موضوع متخصص إلى متطلب على مستوى مجلس الإدارة.
ما الذي يميز عام 2026؟
عندما يتعلق الأمر بالسبب الذي يجعلني أعتقد أن هذا التحول سيحدث هذا العام، وليس فقط “في وقت ما في المستقبل”، فهناك العديد من العوامل المؤثرة. لكن أولاً هي التكنولوجيا. إن التقدم الأخير، ولكن المهم في التشفير المتماثل بالكامل (FHE)، أصبح الآن أخيرًا يجعل من سلاسل الكتل السرية عملية على نطاق واسع.
من خلال السماح بإجراء العمليات الحسابية على البيانات المشفرة دون الكشف عن المعلومات الحساسة، فإننا نشهد الآن بفعالية ما يعادل blockchain لـ HTTPS، أو “HTTPZ”.
ومع ذلك، على الرغم من أن جاهزية التكنولوجيا أمر ضروري بالتأكيد، إلا أنها ليست كافية في حد ذاتها. ما يقلب الخصوصية في عام 2026 هو التقارب بين عدة قوى في وقت واحد:
تنتقل أدوات الذكاء الاصطناعي من التجريب إلى الإنتاج: في الفترة 2024-2025، كانت العديد من عمليات نشر الذكاء الاصطناعي لا تزال تجريبية أو أدوات محدودة النطاق. الآن في عام 2026، تم دمج الذكاء الاصطناعي بالفعل في سير العمل الأساسي، بما في ذلك التسعير واتخاذ القرار والبحث والتطوير والشؤون القانونية والرعاية الصحية والتمويل. بمجرد أن يلامس الذكاء الاصطناعي عنوان IP الأساسي والبيانات المنظمة، تتوقف الخصوصية عن كونها اختيارية.
تصبح مجالس الإدارة مسؤولة بشكل مباشر عن مخاطر الذكاء الاصطناعي: تنتقل حوكمة الذكاء الاصطناعي من السياسة المجردة إلى المسؤولية الائتمانية. وستكون حالات الفشل البارزة – مثل تسرب البيانات، أو الهجمات العكسية النموذجية، أو التنفيذ التنظيمي، أو فضائح إساءة استخدام الذكاء الاصطناعي – بمثابة أحداث قاهرة. لن تسأل المجالس “هل من الجيد التمتع بالخصوصية؟” ولكن “هل يمكننا إثبات عدم تسرب البيانات مطلقًا؟”
كبار المشترين يعيدون ضبط معايير الشراء: مع قيام عدد قليل من الشركات الكبرى والجهات الفاعلة في القطاع العام بوضع بنيات تحافظ على الخصوصية كمتطلبات افتراضية، فإن السوق سوف تنقلب. هذه هي الطريقة التي أصبحت بها شهادات الأمان والمعايير السحابية إلزامية. وبمجرد أن تطلبها مجموعة من اللاعبين الكبار، فإن بقية النظام البيئي يتبعها بسرعة.
الضغط التنافسي، وليس التنظيم وحده: الأهم من ذلك، أن هذا لن يكون مدفوعًا بالتنظيم فقط. وستشهد الشركات أن المنافسين يتحركون بشكل أسرع، ويصلون إلى بيانات أفضل، ويبرمون الصفقات التي لا يستطيعون القيام بها. تصبح الخصوصية عامل تمكين للإيرادات، وليس مجرد التحكم في المخاطر.
ولهذا السبب فإن عام 2026 مهم: فهو النقطة التي تلحق فيها التوقعات بالقدرة، وحيث تصبح تكلفة عدم وجود الخصوصية حسب التصميم مرئية وقابلة للقياس واستراتيجية. لكن لن يستفيد الجميع.
من المرجح أن يتم استبعاده
إن أجزاء النظام البيئي التي من المرجح أن تخطئ في قراءة هذا التحول ليست الجهات الفاعلة “المعادية للخصوصية” بشكل واضح، بل أولئك الذين يعتقدون أنهم يفعلون ما يكفي بالفعل.
ويشمل ذلك الشركات التي تقودها المنصات والتي تخلط بين الانفتاح والثقة. وسوف يستمر بعض اللاعبين – وخاصة في مجال الذكاء الاصطناعي ومنصات البيانات – في افتراض أن الشفافية، أو الأوزان المفتوحة، أو واجهات برمجة التطبيقات المفتوحة كافية لتوليد الثقة.
سوف يقللون من مدى سرعة تعلم العملاء للتمييز بين قابلية الفحص والسرية. يمكن أن يساعد الانفتاح في قابلية التدقيق، لكنه لا يفعل شيئًا لحماية المدخلات الحساسة بمجرد مشاركة البيانات. وفي بعض الحالات، فإنه يدمر الخصوصية بشكل فعال.
سوف تتفاجأ هذه الشركات عندما يرفض المشترون من المؤسسات، ليس بسبب جودة النموذج، ولكن بسبب مخاطر التعرض للبيانات.
وعلى نحو مماثل، فإن الشركات التي تفترض إمكانية تعديل الخصوصية ــ وتعاملها باعتبارها “طبقة” معمارية يمكنها إضافتها لاحقاً من خلال السياسات، أو ضوابط الوصول، أو الضمانات التعاقدية ــ من المرجح أن تجد نفسها محرومة من حالات الاستخدام ذات القيمة الأعلى (البيانات المنظمة، والتعاون بين الكيانات، والملكية الفكرية الحساسة) وذلك ببساطة لأن أسسها لا تتمتع بالمصداقية.
وهذا يعكس في الواقع كيفية التعامل مع الأمن ذات يوم (وما زال كذلك في العديد من الصناعات). الخطأ هو أن الحوسبة السرية، والتعلم الآلي المشفر، واستدلال الحفاظ على الخصوصية تشكل بشكل أساسي تصميم النظام. يعد تعديل الخصوصية لاحقًا أمرًا مكلفًا وهشًا وغير مكتمل في كثير من الأحيان.
أي بائعين يخطئون في قراءة الهدوء النسبي اليوم باعتباره نقصًا في الطلب يكونون معرضين لخطر التخلف عن الركب. في الواقع، غالبًا ما يتم قمع الخصوصية بسبب الطلب: فالمشترون لا يطلبون ما يفترضون أنه مستحيل. وبمجرد وجود حلول قابلة للتطبيق، يتم إعادة ضبط التوقعات بسرعة كبيرة.
لقد رأينا هذا النمط مع الأمان السحابي، وانعدام الثقة، والآن حوكمة الذكاء الاصطناعي. لذلك، بحلول الوقت الذي يكون فيه الطلب واضحًا، سيتم بالفعل استبعاد المتأخرين.
عندما تصبح الخصوصية حصصا على الطاولة
بالنسبة لأولئك الذين يأخذون الخصوصية على محمل الجد في وقت مبكر ويدمجونها في منتجاتهم منذ اليوم الأول، أرى قصة مختلفة تتكشف.
بالنسبة لهم، سيكون لديهم إمكانية الوصول إلى بيانات أكثر ثراءً وحساسية وذات إشارة أعلى لأن العملاء يثقون بهم، بينما سيظل الآخرون عالقين في التدريب والعمل على مجموعات بيانات أرق أو معقمة أو اصطناعية.
كما أنها ستستفيد من سرعة النشر، لا سيما في البيئات الحساسة، وذلك بفضل عدد أقل من المراجعات القانونية والضوابط المخصصة وحق النقض الداخلي. عندما يحدث هذا، يصبح الوقت مقابل القيمة عامل تمييز حقيقي.
أخيرًا، سيكون هناك تحول في عمق التكامل والتعاون، ويرجع ذلك إلى حقيقة أن أنظمة الحفاظ على الخصوصية تفتح التعاون عبر الحدود التنظيمية (الشركاء والموردين والولايات القضائية) الذي كان مستحيلًا في السابق. لن يؤدي هذا إلى تحسين الهوامش فحسب، بل سيؤدي إلى توسيع الأسواق القابلة للتوجيه بشكل كبير.
لقد عرضنا أفضل برامج التشفير.
تم إنتاج هذه المقالة كجزء من قناة Expert Insights التابعة لـ TechRadarPro حيث نعرض أفضل وألمع العقول في صناعة التكنولوجيا اليوم. الآراء الواردة هنا هي آراء المؤلف وليست بالضرورة آراء TechRadarPro أو Future plc. إذا كنت مهتمًا بالمساهمة، اكتشف المزيد هنا: https://www.techradar.com/news/submit-your-story-to-techradar-pro

التعليقات