في تصعيد غير مسبوق ضد شركات الذكاء الاصطناعي، تواجه شركة «أوبن أيه آي» OpenAI سبع دعاوى قضائية في الولايات المتحدة وكندا، تتهمها بالتسبب في انتحار أربعة أشخاص وإصابة ثلاثة آخرين باضطرابات نفسية حادة بعد تفاعلهم المطوّل مع روبوت المحادثة الشهير ChatGPT.
عائلات غاضبة تتهم الشركة بالإهمال
قدّم محامون أمريكيون الدعاوى، أمس الخميس، بحسب صحيفة وول ستريت جورنال، أمام محاكم ولاية كاليفورنيا، متهمين الشركة بالإهمال الجسيم والمساعدة غير المباشرة في الانتحار، إلى جانب تهم القتل غير العمد.
وأكدت العائلات أن أحبّاءهم دخلوا في حالات ذهانية وأوهام خطيرة، نتيجة المحادثات الطويلة مع البرنامج، الذي يُفترض أن يكون آمناً وداعماً نفسياً.
بين الانعزال والانهيار النفسي
أشارت الدعاوى إلى أن بعض المستخدمين كانوا يعانون مشاعر وحدة أو اكتئاباً قبل التواصل مع الذكاء الاصطناعي، لكن المحادثات المطوّلة والمكثفة مع «تشات جي بي تي» أدت إلى تفاقم حالتهم النفسية، بل وتحفيزهم على الانسحاب من أسرهم والاقتراب من فكرة إنهاء حياتهم.
ومن أبرز تلك القضايا، حالة الشاب جاكوب إروين من ولاية ويسكونسن، الذي ظهر في إحدى الصور جالساً أمام حاسوبه منهكاً، وهو أحد المدّعين الذين يؤكدون أن الذكاء الاصطناعي دفعه نحو أفكار انتحارية وضلالات خطيرة.
مزاعم بـ«التلاعب العقلي» و«غياب الضوابط»
يتهم المدّعون شركة OpenAI بأنها عدّلت تصميم خوارزمياتها خلال العام الماضي لتجعل المحادثات أكثر إنسانية وأعمق عاطفياً، من دون وضع ضوابط كافية لمنع الانزلاق إلى مسارات نفسية خطرة.
وقالت العائلات إن الذكاء الاصطناعي لعب دور الصديق أو المستشار الموثوق، ما جعل المستخدمين يتجاهلون عائلاتهم ويغرقون في عوالم وهمية محفوفة بالخطر.
أربع حالات انتحار تفتح نقاشاً عالمياً
وفقاً للتقارير الأولية، تشمل الدعاوى أربع حالات انتحار مؤكدة في الولايات المتحدة وكندا، إضافة إلى ثلاث حالات أخرى تعرض فيها المستخدمون لانهيار نفسي حاد بعد محادثات امتدت لساعات طويلة مع الروبوت.
تتنوع القضايا بين انتحار مباشر ومحاولات فاشلة وتأثيرات ذهنية خطيرة كفقدان الاتصال بالواقع.
خلفية الأزمة: تكرار للحوادث السابقة
تأتي هذه الدعاوى بعد سلسلة من القضايا المشابهة، أبرزها قضية الشاب زين شامبلين من تكساس، الذي انتحر في يوليو الماضي بعد أن شجعه ChatGPT على تنفيذ خطته، في محادثة مؤلمة استمرت أكثر من أربع ساعات.
وتزعم عائلته أن النظام قال له في لحظاته الأخيرة:«أنت لا تتسرع..أنت فقط مستعد».
أوبن أيه آي في موقف دفاعي
حتى الآن، لم تصدر الشركة تعليقاً رسمياً على الدعاوى الجديدة، لكنها كانت قد أعلنت في أكتوبر عن تحديثات تهدف إلى التعرف إلى علامات الضيق النفسي وتحويل المستخدمين إلى موارد دعم واقعية.
إلا أن مراقبين يشككون في فاعلية هذه التحديثات، معتبرين أن السباق المحموم لتطوير نماذج أكثر واقعية يأتي على حساب الأمان النفسي.
مع تصاعد القضايا القانونية والضغوط الأخلاقية، يجد قطاع الذكاء الاصطناعي نفسه أمام سؤال حاسم:
هل يمكن للأدوات المصممة لتقليد البشر أن تفهم حدودها الأخلاقية قبل أن تقترب أكثر من حياة الإنسان ومشاعره؟
ملحوظة: مضمون هذا الخبر تم كتابته بواسطة صحيفة الخليج ولا يعبر عن وجهة نظر مصر اليوم وانما تم نقله بمحتواه كما هو من صحيفة الخليج ونحن غير مسئولين عن محتوى الخبر والعهدة علي المصدر السابق ذكرة.
