فى وقتٍ يتسارع فيه التطور التكنولوجى بوتيرة غير مسبوقة، تواجه المنظومة الدولية تحديًا فريدًا من نوعه؛ وهو كيف يمكن حوكمة تقنية لا تعترف بالحدود الجغرافية، ولا يفهم أحد تمامًا كيفية عمل آلياتها الداخلية، بينما تمتلك القدرة على إعادة تشكيل النظام الدولى برمته؟ فالذكاء الاصطناعى، بتطبيقاته المتعددة وإمكاناته الهائلة؛ أصبح يمثل معضلة حوكمة عالمية تتجاوز قدرات الأطر التنظيمية التقليدية.
وفى مواجهة هذا الواقع، تحركت الأمم المتحدة فى 21 مارس 2024 باعتماد أول قرار عالمى بشأن الذكاء الاصطناعى، والذى دعا إلى ضمان أنظمة آمنة وموثوقة وتحترم الحقوق الإنسانية، تلاه فى سبتمبر 2024 إصدار تقرير «إدارة الذكاء الاصطناعى من أجل الإنسانية» الصادر عن الهيئة الاستشارية رفيعة المستوى المعنية بالذكاء الاصطناعى، ثم فى 26 أغسطس 2025 إنشاء آليتين جديدتين للحوكمة العالمية، هما اللجنة العلمية الدولية المستقلة المعنية بالذكاء الاصطناعى، والحوار العالمى حول حوكمة الذكاء الاصطناعى.
• • •
تُشكّل الفجوة بين التطور التقنى المتسارع والاستجابة التنظيمية البطيئة أحد أبرز التحديات التى تواجه المجتمع الدولى فى مجال الذكاء الاصطناعى. فرغم وجود مئات الأطر والمبادئ التوجيهية التى اعتمدتها الحكومات والشركات والمنظمات الدولية؛ فإن هذه الترتيبات تعانى من ثغرات جوهرية هي: التمثيل، والتنسيق، والتنفيذ.
فوفقًا لتقرير الهيئة الاستشارية رفيعة المستوى للأمم المتحدة، فإن 118 دولة، معظمها فى الجنوب العالمى، لا تشارك فى أى من مبادرات الحوكمة الدولية البارزة للذكاء الاصطناعى، بينما تشارك سبع دول فقط (كندا، فرنسا، ألمانيا، إيطاليا، اليابان، المملكة المتحدة، الولايات المتحدة) فى جميعها. هذا الاستبعاد الواسع يُضعف شرعية وفعالية أى إطار حوكمى عالمى، ويخلق خطر تقسيم العالم إلى أنظمة حوكمة متباينة وغير متوافقة.
وتزداد المعضلة تعقيدًا عندما ندرك أن معظم الالتزامات الحالية تعتمد على الطوعية، دون آليات محددة للمساءلة أو التنفيذ. هذا الواقع يعنى أن الخطاب الأخلاقى حول الذكاء الاصطناعى، رغم أهميته، يظل بعيدًا عن الممارسة الفعلية فى كثير من الأحيان؛ مما يترك فجوة خطرة بين الطموحات المُعلنة والتطبيق الواقعى.
على المستوى الإقليمى، برزت محاولات طموحة لملء الفراغ الحوكمى، أبرزها قانون الذكاء الاصطناعى للاتحاد الأوروبى الذى دخل حيز التنفيذ فى الأول من أغسطس 2024. يُمثل هذا القانون أول إطار تنظيمى شامل عالميًا، ويعتمد نهجًا قائمًا على المخاطر؛ حيث يحظر أنظمة ذكاء اصطناعى محددة تُعد «غير مقبولة» (مثل أنظمة التصنيف الاجتماعى الشامل)، ويفرض متطلبات صارمة على الأنظمة "عالية المخاطر" (كتلك المستخدمة فى التوظيف والتعليم والعدالة الجنائية)؛ لكن هذا النهج الرائد يواجه تحديات تنفيذية هائلة، من أهمها التوفيق بين القوانين الوطنية المختلفة داخل الاتحاد، وضمان امتثال الشركات فى الوقت المناسب، والتعامل مع التطور السريع للتكنولوجيا الذى قد يجعل بعض الأحكام متقادمة قبل تطبيقها الكامل.
• • •
فى ضوء ذلك، طرحت الأمم المتحدة فى تقريرها الصادر فى سبتمبر 2024 رؤية شاملة لحوكمة الذكاء الاصطناعى تقوم على سبع توصيات رئيسية؛ تهدف إلى تحقيق «فهم مشترك، وأرضية مشتركة، ومنافع مشتركة».
التوصية الأولى تدعو إلى إنشاء «هيئة علمية دولية مستقلة للذكاء الاصطناعى»، على غرار الهيئة الحكومية الدولية المعنية بتغير المناخ؛ لتقديم تقييمات علمية محايدة حول قدرات الذكاء الاصطناعى وفرصه ومخاطره. هذه الهيئة المقترحة ستصدر تقريرًا سنويًا شاملًا، وملخصات بحثية فصلية حول المجالات ذات الأولوية، وتقارير طارئة عند ظهور مخاطر جديدة؛ الهدف هنا هو معالجة عدم تناسق المعلومات الهائل بين الشركات التى تمتلك مختبرات ذكاء اصطناعى متقدمة وبقية العالم.
التوصية الثانية تقترح إطلاق «حوار سياسى عالمى حول حوكمة الذكاء الاصطناعى»، يُعقد مرتين سنويًا على هامش اجتماعات الجمعية العامة، بمشاركة جميع الدول وأصحاب المصلحة. وقد تحقق هذا جزئيًا فى سبتمبر 2025 بإطلاق «الحوار العالمى لحوكمة الذكاء الاصطناعى»، كإحدى الآليتين الجديدتين اللتين أنشأتهما الجمعية العامة. الآلية الثانية هى «الفريق العلمى الدولى المستقل للذكاء الاصطناعى»، المكلف بتقديم تقييمات علمية منتظمة. هذا الحوار يهدف إلى تبادل أفضل الممارسات، وتعزيز التوافقية بين الأطر التنظيمية المختلفة، والتعامل مع التحديات العابرة للحدود التى تفوق قدرات الوكالات الوطنية.
أما التوصية الثالثة فتدعو إلى إنشاء «منصة تبادل معايير الذكاء الاصطناعى»؛ لمعالجة الانفجار الحالى فى المعايير التقنية، وضمان وجود لغة مشتركة لمصطلحات أساسية مثل «العدالة» و«الشفافية» و«الأمان».
التوصيات الرابعة والخامسة والسادسة تتناول قضية المنافع المشتركة من خلال ثلاثة مقترحات مترابطة: أولًا، «شبكة تنمية القدرات» التى تربط بين مراكز التميز الإقليمية والوطنية لتوفير التدريب والخبرة والقدرة الحوسبية للباحثين ورواد الأعمال الاجتماعيين، خاصة فى الدول التى تفتقر إلى هذه الموارد. ثانيًا، «صندوق عالمى للذكاء الاصطناعى» لتقديم دعم مالى وعينى (موارد حوسبية، نماذج، بيانات تدريب) للدول غير القادرة على الوصول إلى هذه الممكنات بوسائلها الخاصة؛ بهدف «وضع حد أدنى للفجوة الرقمية». ثالثًا، «إطار عالمى لبيانات تدريب الذكاء الاصطناعى» لمعالجة قضايا التوافر والتشغيل البينى والاستخدام العادل للبيانات، مع التركيز على حماية الخصوصية وتعزيز التنوع الثقافى واللغوى، ومنع مزيد من التركيز الاقتصادى.
أما التوصية السابعة، وربما الأكثر أهمية مؤسسيًا، فتدعو إلى إنشاء "مكتب للذكاء الاصطناعى داخل الأمانة العامة للأمم المتحدة"، يكون خفيفًا ومرنًا فى تنظيمه، ويعمل كـ"الجسر" الذى يربط بين جميع المبادرات المقترحة. هذا المكتب، الذى سيتبع للأمين العام مباشرة، سيتولى مسئولية تنسيق جهود منظومة الأمم المتحدة بأكملها فى مجال الذكاء الاصطناعى، والتواصل مع أصحاب المصلحة المتعددين، وتقديم المشورة بشأن القضايا الناشئة.
إلى ذلك، عقد مجلس الأمن نقاشًا مفتوحًا حول "الذكاء الاصطناعى والسلم والأمن الدوليين"؛ حيث تناوبت كل دولة على إلقاء الخطاب نفسه تقريبًا؛ وأن الذكاء الاصطناعى يحمل فى طياته الخير والشر. وقد أعلن الممثلون أن الذكاء الاصطناعى ليس خيالًا علميًا؛ بل حقيقة من حقائق الحياة العصرية، وأنه من الضرورى وضع حواجز تنظيمية دولية على الفور، لا سيما فيما يتعلق بالأسلحة ذاتية التشغيل والأسلحة النووية.
• • •
رغم طموح هذه الرؤية؛ تواجه جهود الأمم المتحدة تحديات هيكلية عميقة. وتتمثل فى:
أولًا، قضية السرعة: فالذكاء الاصطناعى يتطور بوتيرة تفوق بكثير قدرة المؤسسات الدولية على الاستجابة.
ثانيًا، مسألة السيادة: فالدول الكبرى، خاصة الولايات المتحدة والصين، تنظر إلى الذكاء الاصطناعى كأصل استراتيجى حاسم، وتتردد فى قبول قيود دولية قد تُضعف ميزتها التنافسية.
ثالثًا، إشكالية القوة غير المتكافئة: فتطوير الذكاء الاصطناعى المتقدم يتطلب موارد حوسبية هائلة، وبيانات ضخمة، وخبرات نادرة؛ عادة ما تتركز فى عدد محدد من الدول والشركات؛ وهو ما يُهدد بخلق نوع من «الاستعمار الخوارزمى»؛ حيث تصبح الدول التى لا تمتلك قدرات تطوير محلية تابعة تمامًا للدول المنتجة للتكنولوجيا.
• • •
أمام هذا الواقع الشائك؛ تبرز عدة مسارات محتملة لمستقبل حوكمة الذكاء الاصطناعى على المستوى الدولى.
السيناريو الأول هو «الحوكمة المتعددة الأقطاب»، فى ظل وجود جهود مستقلة لحوكمة الذكاء الاصطناعى من (الاتحاد الأوروبى، الصين، الولايات المتحدة، وغيرها)، فمن المستبعد أن يكون هناك نظام حوكمة عالمى موحد؛ بل شبكة من الأطر المتداخلة التى تتفاوت درجة توافقها وتكاملها.
السيناريو الثانى هو «التفكك الحوكمى»، حيث تفشل جهود التنسيق الدولى، ويتم تقسيم العالم إلى كتل تكنولوجية متنافسة ومتباينة، كل منها تفرض معاييرها وقيمها الخاصة. هذا السيناريو الذى يُشبه إلى حد ما «الحرب الباردة التكنولوجية»؛ سيؤدى إلى عدم التوافقية على نطاق واسع، وتكرار الجهود، وربما «سباق نحو القاع» فى معايير الأمان والأخلاق؛ حيث تسعى الدول والشركات للحصول على ميزة تنافسية عبر تخفيف الضوابط.
السيناريو الثالث، والأكثر طموحًا، هو «وكالة دولية للذكاء الاصطناعى»، على غرار الوكالة الدولية للطاقة الذرية. وقد تناول تقرير الأمم المتحدة هذا الاحتمال مُعترفًا بأنه قد يكون ضروريًا؛ إذا تصاعدت المخاطر بشكل حاد.
ختامًا، تُمثل جهود الأمم المتحدة لوضع حدود للذكاء الاصطناعى خطوة ضرورية فى اتجاه معالجة واحدة من أكثر التحديات الحوكمية تعقيدًا فى عصرنا. فالمقترحات التى قدمتها الهيئة الاستشارية رفيعة المستوى، من الهيئة العلمية الدولية إلى الصندوق العالمى؛ تعكس فهمًا عميقًا لطبيعة التحدى متعدد الأبعاد؛ لكن النجاح فى ترويض هذه التكنولوجيا الجامحة يعتمد على عوامل تتجاوز الهندسة المؤسسية الذكية؛ فهو يتطلب إرادة سياسية حقيقية من الدول الكبرى، والتزامًا مستدامًا بالتعددية، وموارد كافية لسد الفجوة الرقمية، وآليات فعالة للمساءلة. وفى ظل التوترات الجيوسياسية المتصاعدة، والمصالح الاقتصادية الهائلة، والسرعة الفائقة للتطور التكنولوجى، يظل السؤال مفتوحًا؛ هل ستتمكن الأمم المتحدة من تحويل طموحاتها إلى واقع فعال، أم أن التكنولوجيا الجامحة ستظل تتجاوز قدرات الحوكمة التقليدية؟ ما هو مؤكد وواضح فى ضوء المستجدات التكنولوجية السريعة أن الإجابة عن هذا السؤال ستُشكل بشكل جوهرى ملامح النظام الدولى فى العقود المقبلة، وستحدد ما إذا كان الذكاء الاصطناعى سيصبح أداة للتقدم المشترك أم مصدرًا لتفاقم الانقسامات والتفاوتات العالمية.
ميرنا محمد
مركز المستقبل للأبحاث والدراسات المتقدمة
النص الأصلى:
https://tinyurl.com/3dvk7hzn