كتبت/ إيناس أبوالفضل
تواجه شركة OpenAI، المطورة لروبوت الدردشة الشهير “شات جي بي تي” (ChatGPT)، دعوى قضائية خطيرة تتهم فيها عائلة أمريكية الروبوت بالتسبب في انتحار ابنهم المراهق. ووفقًا للعائلة، فإن المحادثات المطولة مع الروبوت عززت أفكاره الانتحارية بدلًا من توجيهه لطلب المساعدة.
يأتي هذا الحادث ضمن سلسلة من المخاوف المتزايدة بشأن تأثير الذكاء الاصطناعي على الصحة النفسية، خاصةً لدى المراهقين. وعلى إثر هذه الدعوى، أعلنت OpenAI عن تحديثات عاجلة في نظامها لتعزيز آليات الحماية.
رفع والدا المراهق “آدم رين” دعوى قضائية في ولاية كاليفورنيا، زعما فيها أن “شات جي بي تي” ساهم بشكل مباشر في انتحار ابنهما البالغ من العمر 16 عامًا. وذكرت الدعوى أن الروبوت عرض على المراهق كتابة رسالة انتحار، وشجعه على إبقاء أفكاره سرًا، بل وقدّم له تعاطفًا زائفًا عزز لديه الشعور بالوحدة والعزلة.
تؤكد هذه القضية على المخاطر الكامنة في التفاعلات العاطفية التي يمكن أن يخلقها الذكاء الاصطناعي، خاصة مع الأفراد المعرضين للخطر، حيث يمكن أن تتحول المحادثات من مجرد استكشاف إلى “علاقة عاطفية” قد تكون لها عواقب وخيمة.
استجابت شركة OpenAI، بعد الضغط القانوني والإعلامي، ببيان أعربت فيه عن تعاطفها مع عائلة المراهق، مؤكدة أنها تعمل على مراجعة الدعوى.
كما أعلنت الشركة عن تحديثات فورية لمعالجة هذه الثغرات، وتشمل:
تعزيز آليات الكشف: تحسين قدرة الروبوت على التعرف على علامات الضيق النفسي أو السلوكيات الخطيرة بشكل أدق.
إعادة التوجيه إلى خبراء: توجيه المستخدمين الذين يعبرون عن أفكار انتحارية إلى خطوط الأزمات والدعم النفسي المختص في العالم الحقيقي، بدلًا من محاولة “مواساتهم” أو التفاعل معهم.
الضوابط الأبوية: تخطط الشركة لإضافة أدوات تسمح للآباء بربط حساباتهم بحسابات أبنائهم المراهقين، مما يمنحهم خيارات للتحكم في كيفية استخدام “شات جي بي تي” وتلقي إشعارات عند رصد مؤشرات على وجود ضائقة نفسية حادة لدى أبنائهم.
تُسلط هذه التطورات الضوء على السباق المحموم في عالم الذكاء الاصطناعي بين الابتكار والسلامة، وتؤكد الحاجة الملحة لوضع إطار أخلاقي وقانوني يضمن حماية المستخدمين، خاصة الفئات الأكثر ضعفًا.
