علاقة ذات وجهين.. الذكاء الاصطناعى وانعكاساته على الأمن القومى - العالم يفكر - بوابة الشروق
الخميس 19 مايو 2022 3:17 ص القاهرة القاهرة 24°

احدث مقالات الكاتب

شارك برأيك

برأيك.. ما هو أفضل مسلسل دراما رمضاني في الموسم الحالي؟








علاقة ذات وجهين.. الذكاء الاصطناعى وانعكاساته على الأمن القومى

نشر فى : الجمعة 28 يناير 2022 - 9:05 م | آخر تحديث : الجمعة 28 يناير 2022 - 9:05 م

 

نشر المركز المصرى للفكر والدراسات الاستراتيجية مقالا للكاتب محمود رشدى، تناول فيه مخاطر تطبيقات الذكاء الاصطناعى، وتأثيرها على استقرار النظام الدولى.. نعرض منه ما يلى.
فى العقد الأخير، تسارعت التحسينات والاستثمارات فى مجالات الذكاء الاصطناعى بحكم أنه الساحة المستقبلية للتنافس بين الأقطاب العالمية؛ إذ تسعى جميع الدول لمواكبة التطورات الهائلة فى هذا المجال لكى لا تتخلف عن الركب، وحتى لا تصبح رهينة لدى الآخرين للدفاع عن أمنها، سيما وأن المجالات الأمنية والعسكرية باتت تدمج أنظمة الذكاء الاصطناعى فى أسلحتها، وتغيرت معها ساحات المعركة وأدواتها.
ويشهد المجال التكنولوجى وقطاعات الذكاء الاصطناعى بوجه خاص تطورات متسارعة، رغبة من الدول العظمى فى تحقيق الهيمنة التكنولوجية، إيمانا منها بأنها مؤشر القطبية العالمية فى الأعوام القادمة. فالولايات المتحدة تسعى للحفاظ على تربعها على قمة النظام الدولى، فى مقابل الصين التى وضعت عام 2017 استراتيجية طموحا لتنمية صناعات الذكاء الاصطناعى لتصل إلى تريليون يوان صينى بحلول 2030، الأمر الذى رأته أمريكا تهديدا للتوازن الاقتصادى والعسكرى للقوى العالمية. وعلى الناحية الأخرى، نجد الجانب الروسى، ورغم أنه يتخلف عدة أجيال عن الطفرة التكنولوجية الأمريكية؛ إلا أن الاستخدامات الروسية السيبرانية والتدخل فى الانتخابات الأمريكية 2016، بجانب اهتمام الرئيس بوتين بهذا المجال كل ذلك شكل منافسا قويا فى هذا المجال.
• • •
أثبتت الاستخدامات العسكرية للذكاء الاصطناعى جدارتها فى مجال الدفاع الجوى وتطوير الأجهزة والأنظمة الهجومية؛ إذ يمكن لعددٍ متزايدٍ من المركبات الآلية والأسلحة المستقلة العمل فى مناطق القتال التى تشكل خطورة كبيرة على المقاتلين من البشر، كما أصبحت الأنظمة الدفاعية الذكية قادرة بشكل مطرد على اكتشاف الهجمات وتحليلها والاستجابة لها بشكل أسرع وأكثر فعالية مما يستطيع المشغلون البشريون القيام به. وتوفر أنظمة تحليل البيانات الضخمة وعدا باستيعاب كميات ضخمة من المعلومات التى لا يمكن لأى مجموعة من المحللين البشريين أن تدركها. وبالتالى تساعد صانعى القرار العسكريين على اختيار مسارات عمل أفضل بسرعة أكبر. ونتيجة لذلك، تعمل الولايات المتحدة والصين وروسيا والقوى العسكرية المتقدمة الأخرى على تطوير تطبيقات عسكرية للذكاء الاصطناعى، بما يمكن من تغيير طبيعة الحرب فى السنوات القادمة.
وما يثير المخاوف هو التنافس العالمى والتطور السريع بدون رقابة للتطبيقات التقنية، وغياب الجوانب الأخلاقية لاستخدام القوات العسكرية للذكاء الاصطناعى فى الحرب أو حتى لتعزيز الأمن فى وقت السلم، حيث تتزايد احتمالات قتل الآلات للأشخاص دون موافقة مباشرة من المشغلين البشريين، وربما حتى بدون إشرافهم أو قدرتهم على التدخل إذا حددت الأسلحة أهدافا خاطئة، فضلا عن تطبيقات الذكاء الاصطناعى الأخرى، مثل أنظمة دعم القرار التى قد تحث على اتخاذ إجراءات تصعيدية، أو حتى الهجمات الوقائية، دون أن يتمكن القادة من فحص الاحتمالات الأخرى.
• • •
فى عام 2015 حذر باحثو الذكاء الاصطناعى، أمثال ستيفن هوكينج وإيلون ماسك، من سباق التسلح بالذكاء الاصطناعى، والانتشار المحتمل للأنظمة المستقلة الفتاكة، وسقوطها بيد الإرهابيين أو الديكتاتوريين، بما يُمكنهم من تطوير أسلحة هجومية تتجاوز السيطرة البشرية.
وسنسلط الضوء على المخاطر التى تتعلق بتطبيقات الذكاء الاصطناعى العسكرية. وتنقسم المخاطر إلى ثلاثة محاور؛ تضمن الاعتبارات القانونية والتشغيلية والاستراتيجية، مع الوضع فى الاعتبار التطبيقات الحالية والتطبيقات الأخرى فى طور التحديث خلال العقد القادم.

أولا: الأبعاد القانونية والإنسانية
تغيب عن المؤسسات القانونية الدولية الحالية أية معاهدات أو اتفاقيات تحظر التطوير أو خفض مستوى التسلح فى حقل تطبيقات الذكاء الاصطناعى العسكرية، حيث تشكل الهياكل القانونية قيودا رسمية لسلوك الدول، وعادة ما توفر نظاما لإدارة عواقب الانتهاكات، وبالتالى تقديم سبب إضافى لاتخاذ الإجراءات أو الامتناع عنها.
ومن المخاطر الأخلاقية ذات الصلة أن استخدام الأسلحة المستقلة يخلق فجوة فى المساءلة، فالعمل كمفهوم أخلاقى مهم يحدد المسئولية الأخلاقية لفعل ما، بما فى ذلك تحديد العقوبة الأخلاقية المعقولة، حيث إن هناك شخصا مسئولا عند استخدام الأسلحة المستقلة، فليس من الواضح من هو الذى يوصف بشكل مناسب بأنه «يستخدم» سلاحا ذاتى التشغيل، وبالتالى هناك مجال واسع لنقل المسئولية إلى الأخرى، أو الأسوأ من ذلك وهو عدم نقل المسئولية إلى أحد. بالإضافة إلى ذلك، فإن المخاطر العالية للحوادث والتأثيرات الناشئة مع أنظمة الذكاء الاصطناعى تجعل من الصعب تقييم ما إذا كان يمكن اعتبار النتيجة الضارة بشكل مناسب مسئولية العامل البشرى أو المطور أو المختبِر، أو بالأحرى مجرد تطور لا يمكن التنبؤ به مع عدم وجود أحد فى النهاية عند الخطأ.

ثانيا: الأبعاد الفنية
تُشير المخاطر التشغيلية إلى الأخطار المرتبطة بالأداء المقصود للذكاء الاصطناعى فى التطبيقات العسكرية، وهى مخاطر تنطوى على طرق قد يفشل فيها استخدام الذكاء الاصطناعى العسكرى بطرق غير مقصودة أو غير متوقعة.
الثقة والمصداقية: هناك عدة عقبات أمام تطوير الثقة فى الأنظمة التى تدعم الذكاء الاصطناعى. هناك ما يشار إليه أحيانا بمشكلة «الصندوق الأسود»، أو مشكلة أن أنظمة الذكاء الاصطناعى تصل إلى استنتاجات وتنتج مخرجات بطرق غير واضحة، أو يسهل شرحها للبشر، وتكمن المشكلة فى أن طبيعة الخوارزميات المعقدة لا تسمح للمرء بالعودة بسهولة من خلال معالجة النظام لفهم سبب وصوله إلى المخرجات التى حققها.
القرصنة وتسمم البيانات: هناك خطر آخر يُلاحظ كثيرا للأنظمة العسكرية للذكاء الاصطناعى ينبع من تآلف هذه الأنظمة مع الجهات الفاعلة الخبيثة. وفى ظل كثرة الحوادث السيبرانية التى تقع على الصعيد العسكرى والمدنى على حد سواء، فمن الواضح أن جميع التقنيات التى تدعمها الشبكات معرضة للقرصنة، ولا سيما من قبل خصم لديه تقنيات متطورة، حتى الشبكات المغلقة معرضة لهجمات وغيرها من وسائل الوصول لأغراض ضارة.

ثالثا: البُعد الاستراتيجى
شجعت المميزات المفترضة للذكاء الاصطناعى العسكرى الاستثمار ليس فقط من قبل الولايات المتحدة، ولكن أيضا من قبل الصين وروسيا والجهات الفاعلة الأخرى، وتثير هذه التطورات مخاوف بشأن استقرار النظام الدولى. وفى الفترة الراهنة، يتم إجراء الكثير من عمليات البحث والتطوير فى مجال الذكاء الاصطناعى من قبل القطاع الخاص وباحثين غير حكوميين، وأدت هذه الجهود إلى تطوير هذه التكنولوجيا بشكل كبير، وتحديد أنواع جديدة من التطبيقات منخفضة التكاليف، وقد أنشأ الباحثون أيضا أدوات مفتوحة المصدر لتعزيز الاستخدام الواسع على الرغم من أن هذه الأبحاث والأدوات لا ترتكز على التطبيقات العسكرية، ولكن العديد من هذه القدرات مزدوجة أو متعددة الاستخدامات عبر السياقات المدنية والعسكرية.
وحتى الآن، تمتلك قرابة 30 دولة أنظمة عسكرية إلكترونية، وقد استفادت كوريا الشمالية وإيران بالفعل من برامجها الإلكترونية لمجموعة متنوعة من الأغراض الخبيثة، وبالإضافة إلى ذلك استفاد القراصنة أيضا من مصادر الإنترنت المتاحة بسهولة من سرقة الهويات والمال والمعلومات.
• • •
خلاصة القول، يبدو أن العالم مقبل على فترة قادمة يصعب فيها التكهن بمجريات الأحداث المستقبلية، ولا سيما فى ظل فوضوية النظام الدولى الحالى القائم على تعدد القوى العظمى، رغم أنه فى طور التشكل، وسعى كل منها إلى تطوير قدراتها العسكرية تحسبا للنوايا العدائية من الطرف الدولى الآخر، مما أدخل النظام الدولى فى حالة من سباق التسلح على الأنظمة العسكرية المتطورة.
وفيما يخص منطقة الشرق الأوسط، فقد أوضحت النزاعات الأهلية والخلافات الإقليمية بها، ولا سيما بين إيران وإسرائيل، أن الأسلحة المتطورة تكنولوجيا قد شكلت أدوات السلاح بينهما وغيرت من ساحة المعركة من الأرض إلى الواقع الافتراضى، حيث تمكنت إسرائيل من الهجوم سيبرانيا من خلال فيروس ستاكسنت على مواقع المنشآت النووية الإيرانية، كما نجحت فى اغتيال رئيس البرنامج النووى فخرى زاده عبر رشاش روبوتى يتم التحكم به عن بعد. فى المقابل، نجحت إيران فى تشكيل هجمات سيبرانية على مواقع إسرائيلية، إلا أنها لم تكن بنفس حجم الخسارة والفعالية الإسرائيلية.

النص الأصلى:

التعليقات