
- يدعو نيل ديجراس تايسون إلى معاهدة عالمية لحظر تطوير الذكاء الاصطناعي الفائق
- ويجادل بأن الذكاء الاصطناعي المتقدم للغاية يمكن أن يشكل مخاطر بحجم الأسلحة النووية إذا ترك دون رادع
- يسلط النقاش الضوء على التوتر المتزايد بين التقدم السريع في الذكاء الاصطناعي والمخاوف بشأن السلامة على المدى الطويل
نيل ديجراس تايسون ليس عادة هو الشخص الموجود في الغرفة الذي يدعو إلى فرض حظر عالمي على أي شيء. اشتهر بشرح الثقوب السوداء بابتسامة أكثر من دفاعه عن المعاهدات الدولية.
ولكن في حديث حديث تم تداوله على نطاق واسع عبر الإنترنت – انظر أدناه – ألقى عالم الفيزياء الفلكية تحذيرًا صارخًا بشأن الذكاء الاصطناعي بدا أقل مثل محاضرة علمية وأكثر مثل سطر من فيلم عن الكوارث.
وقال: “هذا الفرع من الذكاء الاصطناعي مميت”. “علينا أن نفعل شيئًا حيال ذلك. لا ينبغي لأحد أن يبنيه.”
يستمر المقال أدناه
“الفرع” الذي يشير إليه هو الذكاء الاصطناعي الفائق، وهو شكل مستقبلي افتراضي من الذكاء الاصطناعي من شأنه أن يتفوق على الذكاء البشري في جميع المجالات تقريبًا. بالنسبة لتايسون، لا يتمثل القلق في إدخال تحسينات تدريجية على برامج الدردشة الآلية أو مولدات الصور. إنها إمكانية وجود شيء أقوى بكثير، شيء يمكن أن يتفوق على مبدعيه في التفكير، والمناورة، وربما يدوم أكثر.
إن التجربة اليومية لمعظم الأشخاص مع الذكاء الاصطناعي هي عبارة عن برنامج دردشة آلي يقوم بصياغة رسائل البريد الإلكتروني، أو هاتف ينظم الصور، أو تطبيق تنقل يعيد توجيه حركة المرور. ومع ذلك، فإن تحذير تايسون يستغل الجدل المتزايد الذي انتقل من الأبحاث الأكاديمية إلى المحادثات السائدة. إلى أي مدى ينبغي السماح للذكاء الاصطناعي بالذهاب؟
يدعو نيل ديجراس تايسون إلى معاهدة دولية لحظر الذكاء الفائق: “هذا الفرع من الذكاء الاصطناعي قاتل. علينا أن نفعل شيئًا حيال ذلك. لا ينبغي لأحد أن يبنيه. ويجب على الجميع الموافقة على ذلك من خلال معاهدة. المعاهدات ليست مثالية، لكنها أفضل ما لدينا كبشر”. من ص/ChatGPT
سوبر منظمة العفو الدولية
فكرة حظر الذكاء الفائق ليست جديدة. لقد ظل الباحثون والشخصيات العامة يناقشون هذا الأمر لسنوات، وغالباً ما يصورونه كإجراء احترازي ضد “الانفجار الاستخباراتي”، حيث تعمل أنظمة الذكاء الاصطناعي على تحسين نفسها بسرعة خارج نطاق السيطرة البشرية.
ويرى بعض المؤيدين أنه بمجرد وجود مثل هذه الأنظمة، قد يكون من المستحيل احتواؤها أو مواءمتها مع القيم الإنسانية. والحجة المضادة هي أن هذه المخاوف مجرد تخمينات وتهدد بإبطاء الابتكار المفيد.
تتميز مساهمة تايسون بوضوحها واقتراحها للتعاون العالمي بشأن الحظر.
وقال: “على الجميع الموافقة على ذلك بموجب معاهدة”. “المعاهدات ليست مثالية، لكنها أفضل ما لدينا كبشر.”
تعد المعاهدات الدولية إحدى الآليات القليلة التي تمتلكها البشرية لإدارة المخاطر الوجودية. فالأسلحة النووية، والأسلحة الكيميائية، وحتى المواد المستنفدة للأوزون، كانت جميعها خاضعة لاتفاقيات عالمية. المنطق بسيط، حتى لو لم يكن التنفيذ كذلك.
إذا كانت التكنولوجيا خطيرة للغاية بحيث لا يستطيع أي بلد التعامل معها بمفرده، فإنها تصبح مشكلة الجميع. لكن الذكاء الاصطناعي عبارة عن برنامج، وليس قنبلة، والبرمجيات لديها طريقة للتسلل عبر الحدود.
انتشار الذكاء الاصطناعي والخوف
لقد حذرت أصوات رفيعة المستوى باستمرار من أن الذكاء الاصطناعي قد يكون خطيرا بما يكفي لتبرير التدخل العالمي، حتى مع انتشار التكنولوجيا في كل مكان. قد تستخدم الذكاء الاصطناعي للتخطيط لرحلة نهاية الأسبوع أو تلخيص اجتماع، كل ذلك بينما تعلم أن نفس التكنولوجيا الأساسية قد تصبح في يوم من الأيام خارجة عن السيطرة.
إن دعوة تايسون إلى إبرام معاهدة لا تحل هذا التوتر. إذا كان أي شيء، فإنه يشحذ ذلك. ونظرًا لأن التنظيم غالبًا ما يتخلف عن الابتكار، فإن دعوته إلى إبرام معاهدة عندما يبدو الذكاء الفائق نظريًا بحتًا ليست سخيفة. عادة، بحلول الوقت الذي تتحرك فيه الحكومات، تكون التكنولوجيا قد أصبحت منتشرة على نطاق واسع بالفعل.
وقد يكون الذكاء الاصطناعي مختلفا من حيث أن مخاطره المحتملة تتم مناقشتها قبل ظهور أشكاله الأكثر تقدما. وهذا يخلق فرصة، ولكنه يخلق أيضًا معضلة. والتصرف في وقت مبكر للغاية قد يؤدي إلى خنق التقدم. التصرف بعد فوات الأوان قد يجعل السيطرة مستحيلة.
ما يقترحه تايسون هو أن الإجابة لا ينبغي أن تترك للصدفة. ولكن مثل أغلب القرارات الجماعية، فمن المرجح أن تكون فوضوية، ومتنازع عليها، وبعيدة عن الإجماع.
اتبع TechRadar على أخبار جوجل و أضفنا كمصدر مفضل للحصول على أخبار الخبراء والمراجعات والآراء في خلاصاتك. تأكد من النقر على زر المتابعة!
وبالطبع يمكنك أيضًا اتبع TechRadar على TikTok للحصول على الأخبار والمراجعات وفتح الصناديق في شكل فيديو، والحصول على تحديثات منتظمة منا على واتساب أيضاً.

التعليقات