فى لحظة تكشف الكثير عن طبيعة الصراع الدائر حول الذكاء الاصطناعى، أعلن البيت الأبيض عن اجتماع «مثمر وبنّاء» مع رئيس شركة أنثروبيك، رغم أن الأخيرة تخوض نزاعا قانونيا مع وزارة الدفاع الأمريكية. هذا التطور لا يمكن قراءته كحدث تقنى عابر، بل كمؤشر على تحوّل أعمق: الذكاء الاصطناعى بات ساحة صراع بين السياسة والأخلاق والتكنولوجيا.
الاجتماع جاء بعد أيام من إطلاق الشركة نموذجها الجديد «Claude Mythos»، الذى تقول إنه قادر على التفوق على البشر فى بعض مهام الأمن السيبرانى، بما فى ذلك اكتشاف الثغرات البرمجية واستغلالها بشكل مستقل. وبينما لا يزال الوصول إلى هذه الأداة محدودا، فإن ما تمثّله يتجاوز قدراتها التقنية: إنها نموذج لقوة يصعب ضبطها بسهولة.
وبحسب أكسيوس، التقى الرئيس التنفيذى للشركة داريو أمودى مسئولين بارزين فى الإدارة الأمريكية، فى وقت لا تزال فيه العلاقة متوترة، خصوصا بعد أن وصف الرئيس دونالد ترامب الشركة سابقا بعبارات حادة، ودعا إلى وقف التعامل معها.
من الصراع إلى الضرورة
رغم هذا التصعيد السياسى، يعكس اللقاء واقعا مغايرا: لا تستطيع الحكومات تجاهل هذه التكنولوجيا، حتى عندما تختلف مع مطوريها. فالبيت الأبيض نفسه أقرّ بأن النقاش تناول «تحقيق التوازن بين الابتكار والسلامة»، وهى عبارة تختصر المعضلة الأساسية فى عصر الذكاء الاصطناعى.
هذا التناقض يظهر بوضوح فى النزاع القائم بين أنثروبيك والوزارة الأمريكية، بعد تصنيف الشركة كـ«خطر على سلسلة التوريد»، وهو إجراء غير مسبوق. ورغم ذلك، لا تزال أدواتها مستخدمة داخل بعض الوكالات الحكومية، ما يعكس ازدواجية واضحة بين الخطاب السياسى والحاجة الفعلية.
الابتكار أم القيم؟
فى هذا السياق، يرى الخبير فى الإعلام الرقمى والذكاء الاصطناعى أمين أبو يحيى، أن جوهر القضية ليس تقنيا بقدر ما هو أخلاقى. ويقول لـ«النهار» إن الشركات التى «تقدّم القيم على الأرباح قصيرة المدى هى وحدها القادرة على بناء ثقة حقيقية مع المستخدمين على المدى البعيد».
ويشير إلى أن الضغوط الحكومية على شركات الذكاء الاصطناعى «حقيقية ومستمرة»، لكن الاستجابة له لا تكون بالضرورة عقدا مع البنتاجون. وبرأيه، فإن رفض بعض الشركات منح الحكومات وصولا غير مقيّد إلى تقنياتها يرسل رسالة واضحة: «المبادئ ليست للبيع». وهذا الموقف، رغم كلفته التجارية، يشكّل جزءا من هوية هذه الشركات، وليس مجرد قرار تقنى.
توتر بنيوى فى قلب السياسة
النزاع بين أنثروبيك والبنتاجون، كما يوضح أبو يحيى، يعكس سؤالا أكبر: هل الذكاء الاصطناعى أداة سيادية يجب أن تخضع بالكامل للدولة، أم تقنية مدنية تحكمها السوق والأخلاقيات؟
الإجابة عن هذا السؤال، بحسب قوله، ستحدد شكل المنافسة العالمية فى السنوات المقبلة، خصوصا فى ظل سباق محتدم مع قوى كبرى مثل الصين. ويضيف أن هذا التوتر قد يبدو عائقا، لكنه فى الواقع قد يتحول إلى محرّك للابتكار المسئول.
المخاطر العسكرية: الخط الأحمر
لكن التحدى الأخطر، وفق أبو يحيى، يكمن فى الاستخدام العسكرى المباشر لهذه النماذج. فحين يعتمد قرار عسكرى على توصية خوارزمية من دون مراجعة بشرية كافية، «ندخل منطقة بالغة الخطورة».
ويحذّر من أن نماذج مثل «كلود» لم تُصمّم أصلا لاتخاذ قرارات قتالية، وأن استخدامها فى هذا السياق قد يؤدى إلى تسريع التطوير على حساب السلامة. كما ينتقد مقاربة إدارة دونالد ترامب، التى تتعامل مع الذكاء الاصطناعى «كأداة قوة لا كتقنية تحتاج إلى تنظيم»، معتبرا أن هذا النهج قد يؤدى إلى تراجع فى معايير الأمان.
فى المحصلة، تكشف قضية أنثروبيك عن مفارقة أساسية: التكنولوجيا التى تخشاها الحكومات هى نفسها التى لا تستطيع الاستغناء عنها. وبينما يتقدم الذكاء الاصطناعى بسرعة غير مسبوقة، يبقى السؤال الأهم: هل سيتمكن العالم من وضع قواعد واضحة تضبط استخدامه حتّى من قبل الحكومات؟ الإجابة، على ما يبدو، لا تزال قيد التفاوض فى أروقة السياسة، ومختبرات الشركات، وعلى حدود الأخلاق.
سُكينة السمرة
جريدة النهار العربى