الذكاء الاصطناعى الدستورى- عندما يسبق الأمان التطوير.. نموذج أنثروبيك - محمد سالم - بوابة الشروق
الأحد 11 يناير 2026 1:20 م القاهرة

احدث مقالات الكاتب

شارك برأيك

من ترشح لخلافة أحمد عبدالرؤوف في تدريب الزمالك؟

الذكاء الاصطناعى الدستورى- عندما يسبق الأمان التطوير.. نموذج أنثروبيك

نشر فى : الخميس 8 يناير 2026 - 8:20 م | آخر تحديث : الخميس 8 يناير 2026 - 8:20 م

فى خضم المشهد العالمى للذكاء الاصطناعى، الذى يتسم بتنافس محموم وإنفاق غير مسبوق، وما صاحب ذلك من اندفاع متسارع نحو تطوير هذه التقنية طمعًا فى تحقيق السبق والاستحواذ على حصة أكبر من «الكعكة» التكنولوجية، تتراجع إلى الخلف الجهود الجادة التى تسعى إلى كبح جماح هذا الاندفاع. وتتمثل هذه الجهود فى محاولة إتاحة مساحة زمنية كافية لفهم مدى استعداد العالم لاستيعاب هذه التقنية، وتقييم آثارها، ودراسة سبل الحد من سلبياتها والتعامل مع المخاطر المحتملة التى قد تنجم عنها.
وعلى قمة هذه المخاطر يبرز تطور ذكاء الآلة إلى مستوى الذكاء الاصطناعى العام (AGI)، حيث تصبح الآلة قادرة على مضاهاة الذكاء البشرى، ثم الانتقال إلى مرحلة الذكاء الخارق (Super Intelligence) التى يتجاوز فيها ذكاء الآلة القدرات البشرية. وهنا تحديدًا تكمن نقطة الخطر الحقيقية، إذ تمثل هذه المرحلة تهديدًا مباشرًا وجوهريًا للبشرية، يتطلب قدرًا أكبر من التريث والحوكمة والتفكير الأخلاقى العميق.
يتجسّد هذا التوجّه فى مواقف العالم البريطانى جيفرى هينتون، الملقّب بـ«الأب الروحى للذكاء الاصطناعى» والحائز على جائزة نوبل العام الماضى، والذى كرّس جزءًا كبيرًا من جهوده مؤخرًا للتحذير من المسار الذى تسلكه هذه التقنية. فقد أعلن استقالته من عمله فى شركة جوجل فى الأول من مايو 2023، مدفوعًا بمخاوف عميقة من إساءة استخدام الذكاء الاصطناعى، وبخيبة أمل من توجيه الاستثمارات الضخمة نحو تسريع تطويره دون تخصيص موارد كافية لمعالجة مخاطره. ويرى هينتون أن هذا النهج قد يقود إلى مستوى من الخطر الوجودى، إذا لم يتحرك العالم على الفور لتبنى سياسات واضحة تضع أمان الذكاء الاصطناعى وضبطه فى مرتبة أعلى من مجرد تعظيم قدراته وتسريع انتشاره.
• • •
على أرض الواقع وفى خضم هذا السباق المحموم الذى تقوده شركات التكنولوجيا العملاقة، برز اتجاه مغاير يتسم بقدر أعلى من الحذر والمسئولية، ويسعى إلى شق مسار مختلف داخل هذا المشهد المتشابك، لا بالانضمام إلى الاصطفاف القائم بل بمحاولة إعادة توجيهه. ويُعد هذا الاتجاه أحد الملامح الجوهرية لشركة «أنثروبيك Anthropic» التى تأسست عام 2021 ويُقدَّر عدد العاملين بها حاليًا بما يتراوح بين 1500 و2000 موظف، ومنذ لحظة تأسيسها، تبنّت الشركة موقفًا واضحًا يقوم على مبدأ أساسى مفاده أن أمان الذكاء الاصطناعى يجب أن يسبق عملية تطويره وتسريع انتشاره، لا أن يُترك لاحقًا كإجراء تصحيحى بعد فوات الأوان.
تأسست هذه الشركة على يد مجموعة من الباحثين السابقين فى شركة أوبن إيه أى، بدافع القلق المتزايد من المسار الذى يتجه إليه تطوير النماذج اللغوية الكبيرة، خصوصًا فى ظل التركيز المفرط على القدرات والأداء، مقابل اهتمام محدود بالمخاطر الأخلاقية والوجودية المحتملة. وقد رأت هذه المجموعة أن الذكاء الاصطناعى إذا تُرك دون ضوابط واضحة، قد يتحول من أداة مساعدة للبشر إلى مصدر تهديد مباشر لهم، ومن هنا كان قرارهم بترك هذه الشركة وتأسيس شركة «أنثروبيك»، ويأتى على رأس هؤلاء الأخوان داريو أمودى الرئيس التنفيذى الحالى للشركة ودانييلا أمودى رئيسة مجلس الإدارة.
تتبنى «أنثروبيك» رؤية تضع حماية العنصر البشرى على رأس عملية تطوير الذكاء الاصطناعى». فلا يقتصر مفهوم الأمان لديها على منع الأخطاء التقنية أو الاستخدامات الضارة المباشرة، بل يمتد ليشمل: تقليل احتمالات إساءة استخدام النماذج فى التضليل، والتلاعب، ونشر المحتوى الضار، والحد من تحيزات النماذج وتأثيرها السلبى على المجتمعات، وضمان بقاء القرار النهائى فى يد الإنسان، وعدم تفويضه كليًا للآلة، ومنع انحراف النماذج الذكية عن القيم الإنسانية الأساسية مع زيادة قدراتها واستقلاليتها.
• • •
ويعتبر الإسهام الرئيسى للشركة فى هذا المجال هو طرحها لمفهوم «دستور الذكاء الاصطناعى AI Constitution» وهو إطار قيمى وأخلاقى يوجّه سلوك النماذج الذكية أثناء التدريب والتشغيل. ويقوم هذا الدستور على مجموعة من المبادئ المستوحاة من القيم الإنسانية العالمية، وحقوق الإنسان، والقوانين الدولية، والمعايير الأخلاقية المقبولة مجتمعيًا. ومن الناحية التقنية، يُستخدم هذا الدستور لتدريب النماذج على مراجعة سلوكها ذاتيًا، وتقييم مخرجاتها وفق قواعد أخلاقية واضحة، بدلًا من الاعتماد الكلى على الإشراف البشرى المباشر، الذى يصبح غير قابل للتوسع مع تعقيد النماذج. وهو نهج تدريبى يهدف إلى جعل النموذج يلتزم بقواعد أخلاقية محددة مسبقًا، ويرفض تنفيذ الطلبات الضارة أو غير الآمنة، ويفسّر سبب رفضه بشكل منطقى وواضح.
ويمثل هذا النهج محاولة جادة للانتقال من فكرة «التحكم الخارجى» فى الذكاء الاصطناعى إلى الضبط الذاتى القائم على القيم، وهو ما تراه الشركة ضرورة حتمية مع اقتراب النماذج من مستويات أعلى من الاستقلالية والذكاء. ولديها نموذجها اللغوى الكبير «كلود Claude» الذى صُمّم أساسًا وفق فلسفة الذكاء الاصطناعى الدستورى وينافس ChatGPT و Gemini.
تمثّلت المعضلة الكبرى التى واجهت مؤسسى الشركة فى مراحل التأسيس الأولى فى حقيقة أن الاندماج فى السوق العالمية، والسعى لأن تكون لاعبًا مؤثرًا فيه، يفرضان بالضرورة الالتزام بقوانينه وقواعده الحاكمة. غير أن الإشكالية الجوهرية كانت أن هذا السوق تحكمه نزعة متسارعة نحو التطوير والتسابق على الابتكار، غالبًا دون إيلاء مسألة الأمان القدر الكافى من الاهتمام أو إدراجها ضمن أولويات القرار. وأمام هذا الواقع وجدت
الشركة نفسها أمام خيارين لا ثالث لهما: إما الانسياق مع التيار الجارف لهذا السوق، أو تبنّى مسار مختلف يقوم على إعادة تعريف العلاقة بين التطوير والمسئولية. واتساقًا مع توجهها استقر قرارها على التمسك بالمبادئ التى حددت إطار رؤيتها منذ البداية. وانعكس هذا الاختيار بوضوح فى البنية القانونية التى اتخذتها، حيث أُسِّست كشركة منفعة عامة (Public Benefit Corporation)، وهو نموذج قانونى حديث يوازن بين تحقيق الأرباح من جهة، والالتزام الصارم بإحداث أثر إيجابى على المجتمع والبيئة من جهة أخرى. وبموجب هذا الإطار، لا تقتصر الالتزامات القانونية للشركة على تعظيم العوائد للمساهمين - ومن بينهم مستثمرون رئيسيون مثل أمازون وجوجل - بل تمتد لتشمل إعطاء أولوية واضحة لـ«سلامة الذكاء الاصطناعى» والمنفعة العامة. كما يوفر هذا الهيكل حماية قانونية للإدارة، تُمكّنها من مقاومة ضغوط المستثمرين فى حال اتخاذ قرارات بتأجيل أو إبطاء إطلاق منتجات لأسباب تتعلق بالأمن والمسئولية.
• • •
اختار مؤسسو شركة «أنثروبيك» هذا الهيكل القانونى لتحقيق شعارهم الجوهرى: الأمان فوق السرعة. ووفقًا لهذا المبدأ، امتلكوا الحق القانونى الكامل فى تأجيل إطلاق أى نموذج جديد إذا رأوا أنه ينطوى على مخاطر حقيقية، حتى وإن ترتّب على ذلك خسائر مالية بمليارات الدولارات أو استياء المستثمرين. ولمزيد من ترسيخ هذا التوجه، ذهبت عائلة أمودى إلى ما هو أبعد من مجرد كسر منطق تعظيم الأرباح، إذ صمّم داريو ودانييلا أمودى نموذج حوكمة غير مسبوق تمثّل فى إنشاء «صندوق المنافع طويلة الأجل» (Long-Term Benefit Trust). ويدير هذا الصندوق المستقل خمسة أعضاء لا تربطهم أى مصالح مالية بالشركة، ويتمتع هذا الصندوق بامتلاك «سهم ذهبى» يمنحه صلاحيات حاسمة، من بينها تعيين أو عزل أغلبية أعضاء مجلس الإدارة. وبهذا الترتيب، نُقلت سلطة جوهرية من الملكية والقرار إلى هذا الصندوق، فى خطوة تهدف إلى تحييد نفوذ المستثمرين الكبار- مثل أمازون وجوجل - ومنع تحكّمهم فى مستقبل الذكاء الاصطناعى استنادًا إلى ثقلهم المالى وحده. ويضمن هذا الهيكل أن تظل قرارات الشركة منسجمة مع مبادئ السلامة والمسئولية طويلة الأجل، لا مع إملاءات الأسواق قصيرة الأجل أو منطق تعظيم العوائد السريع. وباختصار، يشكّل دستور الذكاء الاصطناعى، ونموذج شركة المنفعة العامة (PBC)، مقرونًا بنظام الصندوق الائتمانى، «درعًا تقنيًا قانونية» يضمن سلامة وأمان منتجهم، ويحمى القيم الأخلاقية للشركة من ضغوط الأسواق المالية. وبهذا المعنى، قد لا تكون عائلة أمودى المالك الأكبر من حيث الحصص المالية، لكنها تظل صاحبة النفوذ الحاسم فى رسم مسار الشركة التكنولوجى وصناعة قرارها.
أختم هذا المقال بالإشارة إلى أن «أنثروبيك» ليست وحدها فى هذا المسار، إذ بدأت بعض الشركات الأخرى - وإن بدرجات متفاوتة - فى إبداء اهتمام متزايد بقضايا أمان الذكاء الاصطناعى. فهناك من يتبنى هذا النهج بحذر وعلى استحياء، وهناك من يخطو خطوة إلى الأمام ويتراجع خطوة أخرى تحت ضغط السوق ومتطلبات المنافسة. ومن بين هذه الشركات يمكن الإشارة إلى شركة «ديب مايند DeepMind» التابعة لجوجل، وكذلك نشير إلى جهود متفرقة داخل شركات كبرى مثل أوبن إيه أى ومايكروسوفت وميتا، حيث باتت مفاهيم الحوكمة، والمواءمة، وتقليل المخاطر جزءًا من الخطاب الرسمى، وإن ظل التطبيق العملى لها محل نقاش وجدل.
ويبقى السؤال الجوهرى: هل ستنجح شركة أنثروبيك فى الحفاظ على مبادئها التأسيسية فى مواجهة بيئة تنافسية شرسة واستثمارات ضخمة تسابق الزمن؟ أم أن ضغوط السوق وإيقاع السباق العالمى ستدفعها، عاجلًا أم آجلًا، إلى الحياد عن المسار الذى اختارته لنفسها؟ وحدها الأشهر والسنوات القادمة كفيلة بالإجابة عن هذا السؤال، وربما كذلك تحديد ما إذا كان نموذج «الأمان قبل الاندفاع» ودستورها قادرين على الصمود، لا كشعار أخلاقى فحسب، بل كخيار استراتيجى قابل للاستمرار فى عصر الذكاء الاصطناعى المتسارع.

محمد سالم وزير الاتصالات وتكنولوجيا المعلومات الأسبق
التعليقات