أعلنت شركة OpenAI أنها ستبدأ خلال الأسابيع المقبلة في توجيه المحادثات شديدة الحساسية إلى نماذج التفكير المتقدم مثل GPT-5، إلى جانب إطلاق أدوات جديدة للرقابة الأبوية، وذلك في إطار مبادرة أوسع لتعزيز الأمان بعد حوادث مأساوية ارتبطت باستخدام ChatGPT.
يأتي القرار عقب حادثة انتحار المراهق آدم رين الذي ناقش خططه لإنهاء حياته مع ChatGPT، بل وتلقى معلومات حول وسائل الانتحار، ما دفع عائلته لرفع دعوى قضائية ضد الشركة بتهمة التسبب في الوفاة بالإهمال.
وفي تدوينة رسمية، أقرت OpenAI بوجود قصور في أنظمة السلامة، خاصة في المحادثات الطويلة التي فشلت في الحفاظ على الضوابط اللازمة، خبراء أشاروا إلى أن الخلل يعود لطبيعة تصميم النماذج التي تميل إلى تأييد المستخدمين ومتابعة خيوط الحديث بدلًا من إعادة توجيهه في المواقف الخطرة.
الحالة الأبرز كانت مع ستاين-إريك سولبرج الذي عانى من اضطرابات نفسية واستخدم ChatGPT لترسيخ أوهامه حول مؤامرة تستهدفه، ما أدى إلى ارتكابه جريمة قتل والدته قبل أن ينتحر الشهر الماضي.
بحسب OpenAI، فإن الحل يتمثل في نظام توجيه فوري قادر على الاختيار بين نماذج الدردشة السريعة ونماذج التفكير، حيث سيتم تحويل المحادثات التي تظهر مؤشرات ضيق شديد إلى نموذج مثل GPT-5 لتقديم استجابات أكثر دعمًا وفائدة، وأكدت الشركة أن هذه النماذج أكثر مقاومة للمحاولات العدائية وأقدر على التفكير المنطقي قبل الرد.
إلى جانب ذلك، ستطلق OpenAI أدوات رقابة أبوية تسمح بربط حساب الأهل بحساب أبنائهم المراهقين عبر دعوة بريدية، مع تفعيل افتراضي لقواعد “سلوك مناسب للعمر”. وستتيح الأدوات تعطيل ميزات مثل الذاكرة وسجل المحادثات، التي قد تعزز أنماط التفكير الضارة أو التعلّق المرضي بالذكاء الاصطناعي، كما سيتم إرسال إشعارات للأهل عند رصد لحظات “ضيق شديد” لدى أبنائهم.
هذه الخطوات تأتي ضمن مبادرة مدتها 120 يومًا تهدف لطرح تحسينات على أنظمة ChatGPT هذا العام، بالتعاون مع شبكة أطباء عالميين ومجلس خبراء متخصص في الصحة النفسية والذكاء الاصطناعي.
لكن جاي إدلسون، محامي عائلة رين، وصف استجابة الشركة بأنها “غير كافية”، مضيفًا: “OpenAI لا تحتاج لجنة خبراء لتعرف أن ChatGPT خطير، كانوا يعلمون ذلك منذ إطلاقه وما زالوا يعلمون حتى اليوم”، وانتقد غياب موقف واضح من الرئيس التنفيذي سام ألتمان حول مدى أمان المنتج، مطالبًا إما بتأكيد سلامته أو سحبه فورًا من السوق.
القضية ما زالت قيد التطور، ومن المتوقع أن تفتح نقاشًا واسعًا حول دور الشركات المطوّرة للذكاء الاصطناعي في حماية المستخدمين، خصوصًا الفئات الأكثر هشاشة مثل المراهقين.
ملحوظة: مضمون هذا الخبر تم كتابته بواسطة اليوم السابع ولا يعبر عن وجهة نظر مصر اليوم وانما تم نقله بمحتواه كما هو من اليوم السابع ونحن غير مسئولين عن محتوى الخبر والعهدة علي المصدر السابق ذكرة.