تلقيت العديد من التعليقات على مقال الأسبوع الماضى الذى كان بعنوان «مطلوب براءة بالذكاء الاصطناعى» بشأن الاستخدام المستسهل والتعسفى للذكاء الاصطناعى فى المجال القانونى وساحات القضاء، من أصدقاء وقرّاء اتفقوا على خطورة سيطرة الذكاء الاصطناعى على المعرفة القانونية المرتبطة بحقوق وحريات المواطنين بصفة خاصة، وما قد يؤدى إليه ذلك من خلق «معارف بديلة كاذبة» كتشريعات وأحكام لم تصدر أساسًا، وزرع أوهام لا حصر لها فى عقول غير المتخصصين والطلاب وشباب الخريجين.
وارتأى بعض المعلقين أن الحل فى سن تشريع لحوكمة الذكاء الاصطناعى، وهو ما كان مطروحًا بالفعل بين الحكومة ومجلس النواب فى صيف العام الماضى، واعترضت عليه هنا فى نفس الزاوية تحت عنوان «لا.. لقانون الذكاء الاصطناعى» وما زلت معارضًا لهذا الاتجاه، لأن تلك الاستخدامات بطبيعتها عصيّة على التنظيم ومن المستحيل السيطرة عليها، وبالتالى سيتحول التنظيم فى التطبيق العملى إلى أكذوبة.
أما جميع الموبقات التى يمكن أن يؤدى إليها الاستخدام غير المسئول لذكاء الآلة فهى مجرّمة بالفعل فى التشريعات القائمة، ولا حاجة بنا لتكرار التجريم أو استحداث عقوبات مختلفة لمجرد اختلاف الوسيلة. وليس من المنطقى أن نكتفى بإضافة مصطلح «الذكاء الاصطناعى» إلى صياغات تشريعية غير متماسكة كما حدث فى بعض الدول بمنطقتنا، فى محاولة لمواكبة «ترند» عالمى.
والحل الوحيد فى رأيى هو توسيع الوعى بأخلاقيات استخدام الذكاء الاصطناعى من خلال المدارس والجامعات التى يبدأ فيها تكوين قدرات الطالب فى عمليات البحث والكتابة والابتكار فى مختلف المجالات. اليوم تستخدم الغالبية العظمى من المعلمين والطلاب أدوات الذكاء الاصطناعى فى توليد أسئلة وحلول سريعة أو كتابة موضوعات إنشائية ومشروعات بحثية. وهذا كله يجب أن يكون تحت إشراف واعٍ لمراعاة مصلحة الطلاب أولًا، وصقل قدراتهم، وتمييز المبدعين منهم الذين يجيدون استخدام وسائل معرفية أخرى ولديهم قدرة نقدية لمراجعة مخرجات أدوات الذكاء الاصطناعى وفحصها للاستيثاق، ثم إضافة بصماتهم الشخصية غير القابلة للتكرار.
والمضمار الثانى لصك الأخلاقيات وتطويرها وتفعيلها هى النقابات المهنية. ومعظم المهن التى لها نقابات فى مصر مهدّدة من الذكاء الاصطناعى بأشكال مختلفة: المحامون، القطاع الطبى، التجاريون، الصحفيون، التطبيقيون. والمعروف أن تقنيات Chat GPT و Gemini وأخواتهما، بدأت بالفعل مزاحمة العاملين فى بعض تلك القطاعات مما يؤدى إلى تقليل الطلب ومعدلات التشغيل. لكن الخطر الآخر يكمن فى استخدام المهنيين للتقنيات بعشوائية واستسهال لإنتاج «المعارف البديلة» أو «مخرجات مشوهة ممسوخة» تؤدى على المدى الطويل إلى إضعاف القدرة على البقاء والتنافسية، وتقضى على معانى «الإبداع» و«الفوارق الشخصية» و«اللمسة الماهرة» التى ما زالت تميّز بين المُنتَج النمطى المُعلّب، والمُنتَج المميز الطازج.
فالمصلحة المهنية البحتة تتطلب من النقابات التدخل بقوة للتوعية بخطورة الوضع الحالي، ووضع قواعد لحوكمة الاستخدام وعدالته ونزاهته، بما يحافظ على روح المهنة وأصالتها ويضع الاستفادة من التطور التكنولوجى فى نصابه الصحيح.
وفى أبريل الماضى أصدرت المحكمة التجارية لمقاطعة كيبيك فى كندا حكمًا قضائيًا بمثابة درس لكل ممارس مهنى (وليس فى الحقل القانونى فقط) يعتمد كليةً على الذكاء الاصطناعى.
حيث ألغت حكمًا تحكيميًا اعتمد على الذكاء الاصطناعى وخوارزميات بعض التطبيقات للفصل فى نزاع مالى، ومن أهم ما جاء فى الحيثيات: «لا يعمل نظامنا القضائى إلا إذا وثق به الناس. إن استخدام الذكاء الاصطناعى فى الإجراءات، مما قد يؤثر على الأحكام، قد يُولّد شكوكًا تجاه مهنة المحاماة والنظام القضائى. والعدالة تتطلب بالضرورة أن تكون القرارات عادلة وإنسانية ومنطقية. وإذا اعتقد الجمهور أن آلةً غير مرئية أو مبهمة هى من اتخذت القرار، بدلًا من إنسان، فقد تتزعزع الثقة فى النظام القضائى».
لم تقف المحكمة أمام التطور وأبدت تفهّمها للاعتماد المتزايد على أدوات الذكاء الاصطناعى لتحسين الصياغة أو التحقق من السوابق وإجراء بعض البحوث، لكنها نبّهت إلى خطورة إنشاء مراجع غير حقيقية أو أوهام زائفة، وغياب التقدير والقيم الإنسانية، وتجاهل الخصائص الذاتية للقضاة والمحامين وأطراف النزاع والظروف المستجدة على القيم الإنسانية، فضلًا عن تهديدات انعدام السرية بتزويد الأدوات بمعلومات يمكن الكشف عنها لاحقًا لأطراف أخرى، ناهيك عن التحيّزات التى يمكن أن تؤدى لها البيانات التى أُدخلت سلفًا إلى قاعدة المعلومات الخاصة بأداة الذكاء الاصطناعى ذاتها.
لقد صدر هذا الحكم بالتزامن مع إجراءات عدة اتُخذت فى أمريكا وبريطانيا ضد المحامين والقضاة الذين يستخدمون الذكاء الاصطناعى فى عملهم دونما مراجعة أو إضافات ذاتية، لكن حيثياته تنبّه إلى ما هو أهم من العقاب: الخطر ممتد الأثر على الممارسة المهنية وعلى حقوق البشر.