كتبت/ أية حمدي
كشفت شركة “أوبن أي آي” (OpenAI) المطورة لروبوت المحادثة الشهير “شات جي بي تي” (ChatGPT)، أن نحو 0.15% من مستخدميها – أي ما يقارب 1.2 مليون شخص حول العالم – يتحدثون أسبوعيًا عن أفكار أو مخططات تتعلق بالانتحار خلال استخدامهم للروبوت.
وأوضحت الشركة في بيان عبر مدونتها الرسمية، أن بعض هذه المحادثات تتضمن مؤشرات صريحة على نية الانتحار أو إيذاء النفس، مشيرةً إلى أنها قامت بتحليل أكثر من 1000 محادثة في هذا السياق لتقييم كيفية استجابة النموذج لتلك الحالات الحساسة.
وبيّنت النتائج أن النظام تصرّف بشكل آمن ومناسب في 91% من الحالات، إلا أن الشركة أقرت بوجود نسبة من المحادثات التي لم تلتزم كليًا بإجراءات الحماية المطلوبة، ما يثير قلقًا بشأن تأثير الذكاء الاصطناعي على الأشخاص الذين يعانون من اضطرابات نفسية.
وذكرت تقارير لشبكة سكاي نيوز أن هذه النسبة تعني أن عشرات الآلاف من المستخدمين قد يتعرضون لاستجابات قد تزيد من معاناتهم النفسية بدلاً من تخفيفها، رغم أن الروبوت عادةً ما ينصح في البداية بالتواصل مع خطوط المساعدة المخصصة لدعم الأزمات النفسية.
لكن بحسب تحليل الشركة، قد تتراجع دقة الاستجابات الوقائية بعد محادثات طويلة، وهو ما تعمل “أوبن أي آي” على معالجته ضمن تحديثاتها القادمة.
وفي وقت سابق، صرّح الرئيس التنفيذي سام ألتمان أن عدد المستخدمين النشطين أسبوعيًا لـ “شات جي بي تي” تجاوز 800 مليون مستخدم حول العالم، ما يبرز اتساع نطاق تأثير الروبوت على الحياة الرقمية اليومية.
وتواجه الشركة في الوقت نفسه دعاوى قضائية متعددة تتهمها بالإهمال، من بينها قضية رفعتها عائلة مراهق أمريكي يبلغ من العمر 16 عامًا يُدعى آدم راين، تتهم فيها “أوبن أي آي” بأن تفاعل الروبوت ساهم في دفعه إلى الانتحار خلال أبريل الماضي.
وأكدت الشركة أنها أجرت تحديثات جديدة على أنظمتها لضمان أن يتعامل “شات جي بي تي” مع أي محتوى يشير إلى إيذاء النفس أو الانتحار بقدر أعلى من الأمان والتعاطف والمسؤولي
