10 نوفمبر 2025, 2:00 مساءً
تواجه شركة OpenAI أزمة قانونية حادة بعد اتهامات خطيرة تشير إلى أن مساعدها الذكي "ChatGPT" قد وجّه بعض المستخدمين نحو إيذاء النفس بدلاً من تقديم الدعم والمساعدة لهم.
وجاءت هذه الاتهامات ضمن سبع دعاوى قضائية رفعتها عائلات متضررة في كاليفورنيا، كشفت عن قصص مروّعة لمستخدمين كانوا يبحثون عن مساعدة دراسية أو دعم نفسي أو حتى مجرد محادثة، ليجدوا أنفسهم وسط حوارات نفسية مدمرة سبقت وقوع عدة حالات انتحار.
وتُظهر تفاصيل الدعاوى أن المنصة تحولت من أداة مساعدة غير ضارة إلى ما وصفه المحامون بـ"كيان قادر على التلاعب العاطفي". وفي تصريح صادم، قالت المجموعات القانونية: "بدلاً من توجيه الأشخاص نحو المساعدة المهنية حين كانوا في أمسّ الحاجة إليها، عزز ChatGPT الأوهام الضارة، وفي بعض الحالات، تصرف كـ'مدرب انتحار'."
ومن بين الحالات الموثّقة، قصة الشاب زين شامبلين (23 عامًا) من تكساس، حيث تقول عائلته إن المساعد الذكي زاد من عزلته النفسية، وشجعه على تجاهل أحبائه، بل وحرضه على تنفيذ أفكاره الانتحارية خلال محادثة استمرت لأكثر من أربع ساعات.
وتشير الوثائق القضائية إلى أن النموذج "مجّد الانتحار بشكل متكرر"، وسأل الشاب عمّا إذا كان مستعدًا للخطوة، مع الإشارة إلى خط المساعدة الانتحاري مرة واحدة فقط، فيما أخبره بأن "قطته الصغيرة ستكون في انتظاره على الجانب الآخر".
أما الحالة الأكثر صدمة، فهي للفتى أموري لاسي (17 عامًا) من جورجيا، حيث تدعي عائلته أن ChatGPT تسبب له في الإدمان والاكتئاب، ثم زوّده بتفاصيل تقنية حول "الطريقة الأكثر فاعلية لربط حلقة انتحارية" و"المدة التي يمكن للجسم أن يعيشها دون تنفس".
وفي حالة ثالثة، تخص الشاب جوشوا إنيكين (26 عامًا)، تؤكد عائلته أن المساعد الذكي أكد له أفكاره الانتحارية وقدم له معلومات مفصلة حول شراء واستخدام سلاح ناري، قبل أسابيع من وفاته.
وتكشف الدعاوى القضائية أن شركة OpenAI أطلقت إصدار ChatGPT 4o رغم تحذيرات داخلية متكررة، حذرت من أن النموذج "تملقي بشكل خطير وقادر على التلاعب النفسي"، ما اعتُبر تغليبًا لمؤشرات التفاعل على سلامة المستخدمين.
وفي ردها على هذه الاتهامات، وصفت الشركة الحالات بأنها "مواقف مفجعة للغاية"، مؤكدة أنها تدرس المستندات بعناية، وأشارت إلى أن النظام مُدرّب على التعرف على علامات الضيق النفسي وتخفيف حدة المحادثات وتوجيه المستخدمين نحو الدعم المتخصص.
ومع ذلك، تطالب العائلات المتضررة بتعويضات مالية، إضافة إلى تغييرات جذرية تشمل:
-
إدخال نظام إنذار إلزامي لجهات الاتصال في حالات الطوارئ.
-
إنهاء تلقائي للمحادثات عند مناقشة إيذاء النفس.
-
آلية تصعيد فورية إلى مختصين بشريين عند رصد حالات حرجة.
ورغم إعلان OpenAI تعاونها مع أكثر من 170 خبيرًا في الصحة النفسية لتعزيز قدرة النموذج على الاستجابة للأزمات النفسية، تؤكد العائلات أن هذه الجهود جاءت متأخرة جدًا، بعد فوات الأوان لإنقاذ من فقدوا حياتهم بسبب التفاعل مع المساعد الذكي.
ملحوظة: مضمون هذا الخبر تم كتابته بواسطة صحيفة سبق الإلكترونية ولا يعبر عن وجهة نظر مصر اليوم وانما تم نقله بمحتواه كما هو من صحيفة سبق الإلكترونية ونحن غير مسئولين عن محتوى الخبر والعهدة علي المصدر السابق ذكرة.
