هل يواجه الذكاء الاصطناعي انتكاسة بعد صدمة «ChatGPT»؟ - العالم يفكر - بوابة الشروق
السبت 11 مايو 2024 12:52 ص القاهرة القاهرة 24°

احدث مقالات الكاتب

شارك برأيك

هل تؤيد دعوات مقاطعة بعض المطاعم التي ثبت دعمها لجنود الاحتلال؟

هل يواجه الذكاء الاصطناعي انتكاسة بعد صدمة «ChatGPT»؟

نشر فى : الخميس 6 أبريل 2023 - 8:40 م | آخر تحديث : الخميس 6 أبريل 2023 - 8:40 م
تعد دعوات إيلون ماسك وعدد من الخبراء فى الذكاء الاصطناعى، للتوقيع على خطاب مفتوح لوقف تطوير أنظمة الذكاء الاصطناعى لمدة 6 أشهر ووقف تدريب أى تقنية أقوى من «GPT ــ 4»، مؤشرا قويا على تخوفات بعض الخبراء من هذا النمط السريع لتقدم أنظمة الذكاء الاصطناعى وتفوقها على القدرات البشرية. الأخطر من ذلك هو إعطاء تلك الأنظمة الثقة المطلقة بما يهدد حياة البشر. فى ضوء ذلك نشر مركز المستقبل للأبحاث والدراسات المتقدمة مقالا للكاتب إيهاب خليفة، تناول فيه ضرورة إعادة النظر فى التطور الذى أحرزه الذكاء الاصطناعى وتقييم أدائه، ومدى جاهزية البشر للتعامل معه، لتفادى قدر الإمكان أى مشكلات تعرض حياة الإنسان للخطر مستقبلا أو انتكاسة تفقد الذكاء الاصطناعى مصداقيته... نعرض من المقال ما يلى.

أثبت الذكاء الاصطناعى قدرات فائقة على محاكاة أسلوب البشر، لدرجة أنه أصبح من الصعب معرفة ما إذا كانت رواية معينة أو قصة قصيرة أو مقطوعة موسيقى قد تم تأليفها بواسطة البشر أم بواسطة الذكاء الاصطناعى، بل صدم تطبيق شات جى بى تى (ChatGPT) كثيرا من الناس بقدرته على الدخول فى محادثات معقدة ومتشعبة معهم حول موضوعات مختلفة وبكفاءة عالية وكأن شخصا يتحدث معهم.

فهل وصلت نظم الذكاء الاصطناعى «العام» ــ التى لديها القدرة على القيام بعدة وظائف فى نفس الوقت ــ إلى مرحلة الاعتمادية والاستخدام أم لا زالت تعانى مشكلات جوهرية؟ هل هى تتطور بصورة أكبر وأسرع من قدراتنا نحن البشر على فهمها أم هناك مبالغة فى تقدير كفاءتها وقدراتها؟ وبين هذا وذاك، يظهر احتمال ولو ضئيل بأن تتعرض نظم الذكاء الاصطناعى لانتكاسة ولو مؤقتة تفقدها مصداقيتها التى حظيت بها، إما بسبب سرعة تطورها أو بسبب عدم استعدادنا حتى الآن للتعامل معها.
• • •

إذا نظرنا إلى الذكاء الاصطناعى العام ــ وهنا أميز بينه وبين الذكاء الاصطناعى المتخصص الذى يقوم بوظيفة محددة ــ فسوف نجد أن الذكاء الاصطناعى عبارة عن طفل خارق، لم يكد يُولد حتى استطاع أن يمتلك قدرات خارقة، ويدرك من العلوم أصعبها ويحل من المسائل أعقدها، ويوفر إجابات سريعة بل ودقيقة قد لا يستطيع أستاذ جامعى أن يحصيها فى تخصصه.

بيد أن طريقة اكتساب المعرفة عند الذكاء الاصطناعى بما يؤهله للقيام بهذه الوظائف، تختلف كلية عن نظيرتها عند البشر. وهنا لا أقصد بذلك أن جودة قرارات البشر أفضل، ولكن طريقة تعلمهم مقارنة بطريقة تعلم الذكاء الاصطناعى قد تكون أدق وأثقل.

فالإنسان يكتسب مهاراته ومعارفه عبر عقود يتعلم فيها كلمات وجُملا وتراكيب معقدة، ثم يبدأ فى توليد أفكار نابعة من عقله، ويبتكر من العدم، وأثناء هذا يمتزج الفكر بالثقافة بالدين بالمعلومة بالحدس بالخبرة التاريخية، ويحفظ الحمض النووى والجينات المعلومات الأساسية التى تضمن استمرار البشر على قيد الحياة. ويحدث هذا كله تحت إشراف نظام عقلى وبيولوجى شديد التعقيد، فيسهم ذلك فى تكوين نسق فكرى ومنهج إنسانى قادر على الانتقاء والترتيب والترشيح والاختيار، على عكس نظم الذكاء الاصطناعى التى تعتمد فقط على التعلم اللحظى والفورى.

وبينما يهدف الذكاء الاصطناعى من التعلم إلى توفير إجابات لتساؤلات مطروحة، أو القيام بمنفعة وقتية، أو تحقيق مصلحة راهنة؛ فإن هدف البشر من التعلم هو فهم الأحداث وتفسيرها سواء للتكيف معها أو تغييرها، وليس الوقوف عند مرحلة توفير إجابات لتساؤلات مفتوحة.
• • •

إن السرعة التى يتعلم بها الذكاء الاصطناعى قد تؤدى إلى الوقوع فى أخطاء، وقد يكون من الوارد ذلك ومن المقبول أيضا، فالبشر وبالرغم من طريقة تعلمهم المعقدة فهم كذلك يخطئون. هذا حقيقى ولكن درجة الثقة التى قد يمنحها البشر للذكاء الاصطناعى ربما لا يمنحونها لبعضهم بعضا، فثمة إدراك واسع أن البشر وبالرغم من علومهم يخطئون، وهناك حالة من التقبل لذلك والتكيف معه والاستعداد للتعامل معه؛ بيد أن المشكلة تصبح كبيرة حينما يرى البشر أن الذكاء الاصطناعى بكل ما أُوتى من قوة يصعب أن يقع فى الخطأ، وهنا يصبح خطأ الذكاء الاصطناعى أشد خطرا من خطأ البشر لأنه حينها لن يتم إدراك أنه خطأ.

ففى تجربة شخصية قُمتُ بها على تطبيق «ChatGPT»، أعطيته مسألة حسابية بسيطة للغاية، وهى أنه إذا كان عمر «إيهاب» ضعف عمر «مؤمن» حينما كان لدى الأخير عامين، فكم عمر إيهاب إذا كان عمر مؤمن 50 عاما؟ الإجابة ببساطة هى 52 سنة، لأنه عندما كان مؤمن عمره سنتين كان إيهاب عمره 4 سنوات، وبالتالى فإن الفرق بينهما هو سنتان فقط، ولكن لسبب ما لم يستطع «ChatGPT» أن يجاوب عن هذا السؤال، وأعتقد أن ذلك بسبب رغبته فى توفير إجابة سريعة دون الانتظار لثوانٍ قليلة للتأكد من صحة إجابته.

وما أدهشنى فى الإجابة عن هذا السؤال هو إصرار التطبيق على تقديم أكثر من دليل على صحة منطقه، بالرغم من أنه منطق فاسد وخاطئ، وهنا تكمن الخطورة فى إمكانية اعتماد البشر على هذا النوع من الذكاء الاصطناعى السريع المُضلل.
• • •

إن البحث عن نظام ذكاء اصطناعى عام وقوى وقادر على توفير إجابات لكل شىء وبسرعة هو أمر يشبه بحث عالم الفيزياء ستيفين هوكينج عن معادلة واحدة لتفسير الكون بكل ما فيه من كواكب وشموس وأجرام سماوية وظلام، فلا يمكن لمعادلة واحدة تحقيق ذلك، ولا يمكن لخوارزمية واحدة أيضا أن تفعل. فالبشر مختلفون فى معارفهم وأفكارهم وإدراكاتهم، كما أنهم ليسوا على نفس الدرجة من التطور التكنولوجى؛ فبعضهم يستخدم تكنولوجيا قديمة، والآخر يستخدم تكنولوجيا حديثة، وفئة ثالثة لا تستخدم أيا منها، وهنا تختلف طبيعة البيانات التى يتم تغذية نظم الذكاء الاصطناعى بها وفقا لطبيعة المستخدمين، فتكون الإجابات صالحة لفئة دون غيرها.

لذا من الأفضل أن نهتم بتطوير الذكاء الاصطناعى المتخصص، الذى يركز على وظائف محددة تطبيقا لمبدأ «التخصص فى العمل»، فالتعويل على نظام ذكاء اصطناعى عام قادر على توفير معلومات حول كل شىء لم يتحقق بعد، والوعود التى قدمتها «شات جى بى تى» و«مايكروسوفت» و«جوجل» أشبه بوعود مارك زوكربيرج حول «الميتافيرس»، فلا هى تحققت حتى الآن ولا هى بعيدة المنال. كل ما فى الأمر أننا ما زلنا فى حاجة إلى مزيد من الوقت حتى تصل هذه النظم الذكية إلى مرحلة النضج حتى لا تتعرض لانتكاسة.
• • •

قد يكون الذكاء الاصطناعى جيدا للغاية، وربما يكون أيضا على صواب وخالٍ من الأخطاء والعيوب والنواقص، وقد يكون النموذج الأفضل للمعرفة البشرية ومصدر الحكمة التى افتقدتها الإنسانية؛ لكن هل نحن مستعدون لهذا النوع من التطور بهذه الكيفية فى الوقت الحالى، أم أننا فى حاجة إلى مزيد من الهدوء والتأنى حتى يمكن تطوير هذه النظم الذكية على المسار الصحيح دون أن تتسبب فى دمار البشرية؟

فتطور نظم الذكاء الاصطناعى بات يسير بسرعة أكبر من قدرتنا نحن البشر على مجاراتها، وأكبر من قدرتنا على معرفة تداعياتها، بل قد يتعرض الذكاء الاصطناعى للوقوع فى الخطأ بسببنا نحن البشر؛ نتيجة لعدم قدرتنا على فهم الطريقة التى يتطور بها.
• • •

لعل هذا التطور المُخيف هو ما دفع الملياردير «إيلون ماسك» برفقة 1125 آخرين، من بينهم خبراء فى الذكاء الاصطناعى، للتوقيع على خطاب مفتوح يدعو لوقف تطوير أنظمة الذكاء الاصطناعى الأكثر تقدما لمدة 6 أشهر، وصدر الخطاب عن مؤسسة «Future of Life» غير الهادفة للربح، وتطالب مختبرات الذكاء الاصطناعى بوقف تدريب أى تقنية أقوى من «GPT ــ 4» الذى أصدرته «OpenAI» فى وقت سابق من شهر مارس 2023، وذكر الخطاب أن أنظمة الذكاء الاصطناعى المعاصرة أصبحت منافسة للبشر فى المهام العامة، وأنه ينبغى أن نسأل أنفسنا هل يجب أن نسمح للآلات بأن تغمر قنوات المعلومات لدينا بالادعاءات والكذب؟ وشدد التقرير على أنه فى حالة عدم وقف ذلك التطوير بسرعة، فإنه يتعين على الحكومات التدخل وفرض وقف مؤقت لتلك الأنشطة.

ختاما، يمكن القول إنه ما بين التخوف من سرعة تطور الذكاء الاصطناعى وتفوق قدراته على البشر، والتخوف من إمكانية إعطاء البشر ثقة مطلقة لنظم الذكاء الاصطناعى قد لا تكون أهلا لها، تظل هناك تخوفات من تعرض نظم الذكاء الاصطناعى لانتكاسة نتيجة خطأ جسيم ينتج عنه تعريض حياة البشر للخطر أو فشل فى الاعتمادية والاستخدام وعدم القدرة على توليد نتائج سليمة بكفاءة عالية، بما يتطلب وجود فترة كافية لإعادة النظر فى التقدم الذى أحرزه الذكاء الاصطناعى إلى الآن وإعادة تقييم درجة كفاءته.

النص الأصلى

التعليقات