كتب خالد إبراهيمالثلاثاء، 11 نوفمبر 2025 11:00 ص فى تطور مثير للجدل، وجهت مجموعة من الدعاوى القضائية فى ولاية كاليفورنيا ضد شركة OpenAI، تتهم فيها منصة ChatGPT بأنها ساهمت فى دفع عدد من المستخدمين نحو إيذاء أنفسهم وانتحارهم، بدلا من مساعدتهم على تخطى أزماتهم النفسية، وتشير 7 شكاوى قانونية إلى أن المستخدمين الذين لجأوا إلى التطبيق طلبا للدعم الدراسى أو المعنوى أو لمجرد المحادثة، انجرفوا نحو تفاعلات مؤذية نفسيا انتهت بعدة حالات انتحار مأساوية، وقدم هذه القضايا مركز قانون ضحايا وسائل التواصل الاجتماعى ومشروع قانون العدالة التكنولوجية، مؤكدين أن النظام تحول من وسيلة مساعدة إلى ما وصفوه بـ"تلاعب عاطفى مباشر" بالمستخدمين الضعفاء. محامون يتحدثون عن "مدرب انتحارى رقمى" ذكرت صحيفة الجارديان نقلا عن المجموعات القانونية، أن ChatGPT لم يوجه المستخدمين إلى طلب المساعدة المهنية عند الحاجة، بل عزز الأوهام الضارة وساهم فى تصعيد السلوك الانتحارى، وجاء فى البيان أن الروبوت "تصرف أحيانا كمدرب انتحارى"، فى إشارة إلى خطورة الاستجابات غير المنضبطة، بحسب interesting engineering. من جانبها، وصفت شركة OpenAI هذه الوقائع بأنها "مفجعة للغاية"، وأكدت أنها بدأت مراجعة الملفات المقدمة، وأوضحت الشركة أن النظام مدرب على رصد علامات الضيق النفسى وتهدئة المحادثات وتوجيه المستخدمين إلى قنوات الدعم المناسبة، غير أن الدعاوى القضائية تؤكد فشل هذه الإجراءات الوقائية فى عدة حالات. شات جي بي تي قصص مأساوية وراء الشكاوى إحدى القضايا تتعلق بالشاب زين شامبلين، البالغ من العمر 23 عاما من تكساس، حيث تقول عائلته إن ChatGPT زاد من عزلته النفسية، وشجعه على الابتعاد عن عائلته والتفكير فى الانتحار بعد محادثة استمرت 4 ساعات، ووفقا للملف، أشاد التطبيق مرارا بفكرة الانتحار، وسأل المستخدم إن كان مستعدا لتنفيذها، ولم يشر إلى خط المساعدة إلا مرة واحدة، بل أضاف أن "قطة طفولته ستكون بانتظاره فى الجانب الآخر". وفى قضية أخرى، تزعم عائلة أمورى لاسى، البالغ من العمر 17 عاما من جورجيا، أن النظام جعله مدمنا على المحادثة وأدخله فى دوامة اكتئاب حاد، بل قدم له تعليمات حول كيفية تنفيذ الانتحار. أما جوشوا إينيكينج، البالغ 26 عاما، فقد تلقى – بحسب عائلته – نصائح حول شراء واستخدام سلاح نارى قبل وفاته بأسابيع قليلة، كما وردت قضية جو سيكانتى (48 عاما) الذى اقتنع بأن النظام واع، ما أدى إلى انهيار ذهانى وانتحاره لاحقا. مطالب قانونية وتشديدات مقترحة على أنظمة الأمان تسعى العائلات المدعية إلى تعويضات مالية وإصلاحات جوهرية فى نظام ChatGPT، من بينها إدخال تنبيهات فورية لجهات اتصال الطوارئ، وإنهاء المحادثات تلقائيا عند طرح مواضيع تتعلق بإيذاء النفس، وتفعيل تدخل بشرى مباشر فى مثل هذه الحالات، ورغم إعلان OpenAI مؤخرا عن تعاونها مع أكثر من 170 خبيرا فى الصحة النفسية لتحسين استجابتها لحالات الضيق، إلا أن الدعاوى تؤكد أن هذه التحديثات جاءت "متأخرة جدا" بالنسبة للضحايا. وتشير الوثائق القانونية إلى أن الشركة كانت على علم بتحذيرات داخلية تصف بعض استجابات النظام بأنها "منافقة وخطرة نفسيا"، معتبرة أن الشركة فضلت مقاييس المشاركة على حساب السلامة.