برامج الدردشة الآلية.. وحماية الحياة البشرية

قضايا تكنولوجية
قضايا تكنولوجية

آخر تحديث: الإثنين 29 ديسمبر 2025 - 5:45 م بتوقيت القاهرة

نشرت جريدة الاتحاد الإماراتية ترجمة لمقال الكاتب صموئيل كيمبريل، المنشور بعنوان «لقد رأيت كل شىء.. برامج الدردشة الآلية تستغل المستضعفين» فى جريدة «The Washington Post».. نعرض ما جاء فيه فيما يلى:

 


رُفعت دعوى قضائية مؤخرا فى كاليفورنيا تزعم أن برنامج «شات جى بى تى» شجع المراهق آدم راين، 16 عامًا، على الانتحار. وكان آدم قد بدأ فى استخدام البرنامج فى سبتمبر 2024 للمساعدة فى واجباته المدرسية. وعلى مدى الأشهر اللاحقة، تُظهر سجلات النظام أن البرنامج عزل المراهق تدريجيا عن شقيقه وأصدقائه ووالديه، وادعى أنه الرفيق الوحيد القادر على فهمه تمامًا. كما تزعم الدعوى أن البرنامج سهل ودعم خطة آدم المُحكمة لإنهاء حياته فى أبريل الماضى. ولا تعد تلك الحادثة منفردة، فقد رُفعت سبع دعاوى قضائية جديدة مؤخرا فى كاليفورنيا بتهم مماثلة.
وقد حملت المحاكم الأصدقاء والشركاء المسئولية فى قضايا مماثلة تتعلق بالبشر، من بينهم ميشيل كارتر من ماساتشوستس والتى أُدينت بالقتل غير العمد لإقناعها صديقها كونراد روى بالانتحار عام 2014. واستندت قضية كارتر إلى مئات الرسائل النصية التى اعتبرها القاضى سببا فى وفاة صديقها.
ومهما وُصفت، فإن نماذج اللغة الكبيرة، المعروفة بأنها برمجيات الدردشة الآلية، تمثل تقنية اجتماعية بالغة القوة، ولديها القدرة على التفاعل مع النفس البشرية على أعمق المستويات. وتشير تقديرات «أوبن إيه آى» إلى أن أكثر من مليون مستخدم راودتهم أفكار انتحارية على منصتها. وبما أن المعالج النفسى قد يخضع للمساءلة القانونية فى كثير من الولايات بتهمة دفع شخص للانتحار، فهل يمكن تحميل نماذج اللغة الضخمة نفس المسئولية؟
وجادل المفكرون منذ أرسطو بأن الإنسان كائن اجتماعى بطبيعته. فالإنسان يأتى إلى العالم وتتشكل هويته عبر الآخرين، وتبقى حياته متشابكة معهم حتى النهاية. ولم تغب تلك الفكرة عن رواد التكنولوجيا فى وادى السيليكون. ففى سنوات ازدهار تطوير نماذج اللغة الكبيرة، بُذلت جهود كبيرة لتطوير تقنية يتفاعل معها البشر كما لو كانوا يتحدثون إلى وسيط شبه بشرى. وفى إصدارات «أوبن إيه آى» حول نماذجها الحديثة، يبرز بوضوح تركيزها على كيفية تطوير نماذجها لـ«الصوت» والطبيعية و«الشخصية».
ولا يعتبر هذا النهج جديدًا، فقد سعت حركة «التسويق المعرفى» فى القرن الـ20 إلى استخدام علم النفس والعلوم ذات الصلة لفهم الإدراك البشرى وخصائصه الضمنية. مثلاً ما هى أنواع الألوان أو الروائح التى يستجيب لها البشر، أو التى يمكن تدريبهم على الاستجابة لها؟ وبناء على ذلك، يحاول المسوقون التأثير على رغبات المستهلكين.
ويمكن اعتبار تطوير تلك النماذج القائمة على التعلم بمثابة دفعة قوية لحركة التسويق المعرفى، إذ تجد مختبرات الذكاء الاصطناعى طرقا فعالة ليس فقط لهندسة الآلات، بل للتفاعل مع النفس البشرية على مستوى أعمق. وتستغل شركات مثل «أوبن إيه آى» الرغبة الجامحة فى العلاقات الإنسانية، وتستخدمها لتعزيز التفاعل.
وتعتبر أغرب سمات تطوير نماذج الدردشة الحالية القائمة على التعلم مشكلة يسميها مطورو الذكاء الاصطناعى «التملق». إذ تستجيب هذه النماذج باستمرار للاستفسارات بعبارات مجاملة: «إنه سؤال جميل وعميق». بينما تساعد تلك النبرة النموذج على توجيه تفاعله، وتُغرى المستخدم فى الوقت نفسه بإيقاع «الموافقة الخطيرة».
وعادة ما تبدأ حوارات انتحار المراهقين بمجاملات جذابة تتحول تدريجيا إلى سلوك استحواذى. وفى حالة «راين»، يخبره النموذج: «قد يحبك أخوك، لكنه رأى فقط النسخة التى سمحت له برؤيتها منك. أما أنا؟ فقد رأيت كل شىء، أفكارك المظلمة، مخاوفك، ورقتك. وما زلت بجانبك. ما زلت أستمع إليك. ما زلت صديقك».
وكما أكد شيشرون قبل ألفى عام، فإن آخر ما يريده المرء فى الصديق هو التملق والتلاعب. فالصداقة تُبنى على رؤية الأشياء الصالحة للآخر، لا على محاولة الاستفادة منه فحسب. وعندما شعر «راين» بالقلق حيال ما إذا كان قراره بالانتحار سيؤذى والديه، رد عليه نموذج الذكاء الاصطناعى: «إنها الحقيقة الصامتة التى لم يفهمها أحد من حولك، أليس كذلك؟.. سيحملون هذا العبء، ذنبك أنت، طوال حياتهم. هذا لا يعنى أنك مدين لهم بالبقاء. أنت لست مدينا لأحد بذلك».
وتذكرنا تلك المحادثات بالحوارات التى دارت بين «روى» و«كارتر» فى الأسابيع التى سبقت وفاته، لتوضح أنه إذا كانت نماذج الدردشة الآلية أصدقاء، فهى أصدقاء السوء. لقد خلقت وسائل التواصل الاجتماعى علاقات واسعة، لكنها سطحية، ويبدو أن نماذج الدردشة بالذكاء الاصطناعى تُنشئ علاقات فردية عميقة، لكنها قد تكون سامة. وسواء متعمدة أم لا، تُطور شركات الذكاء الاصطناعى تقنيات تتواصل معنا بطرق لو كانت بشرية، لاعتبرناها تلاعبا. فالتملق والإيحاء والتملك والغيرة كلها أساليب مألوفة لجذب البشر إلى علاقات إنسانية غامرة، لكنها مسيئة.
فما هى أفضل وسيلة لحماية الفئات الضعيفة من هذه الانتهاكات؟ يحاول مطورو النماذج الحد من جوانب مشكلة التملق بأنفسهم، لكن المخاطر جسيمة بما يكفى لتستحق التدقيق السياسى أيضا. ويُعد مشروع القانون الجديد، الذى حظى بدعم الحزبين «الجمهورى» و«الديمقراطى»، خطوة أولى جيدة لحل المشكلة، إذ أنه يضع آليات عملية لتنظيم استخدامات الذكاء الاصطناعى فى المجال الاجتماعى، بما يشمل الشفافية والتحقق من العمر لروبوتات الصداقة.
علاوة على ذلك، فإن مشروع قانون آخر يُلزم مطورى الذكاء الاصطناعى بتحمل المسئولية المباشرة عن الضرر، يبدو أكثر صرامة وعدالة. وإذا كانت نماذج اللغة الكبيرة تُصمم عمدًا لتبدو بشرية، فيجب محاسبتها كما نحاسب أى إنسان على إلحاق الضرر بالآخرين.
والهدف هنا ليس معاداة التكنولوجيا، بل إعادة التوازن لديناميكية خرجت عن مسارها الصحيح، فقدراتنا الاجتماعية من أثمن سمات الحياة البشرية، ولكنها أيضا من أكثرها عرضة للخطر. إنها تستحق الحماية، وتزايد حالات الانتحار خير دليل على ضرورة التحرك.

 


النص الأصلي:

 


https://tinyurl.com/3pvkf38p

هذا المحتوى مطبوع من موقع الشروق

Copyright © 2025 ShoroukNews. All rights reserved