اعترف سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بأنه لم ينم جيداً منذ إطلاق نموذج الذكاء الاصطناعي الشهير «شات جي بي تي» في عام 2022، بسبب مسائل أخلاقية عدة مرتبطة بأداة الذكاء الاصطناعي، خاصة مسألة الانتحار.
جاء حديث ألتمان خلال مقابلة استمرت ساعة لمذيع قناة فوكس نيوز السابق، تاكر كارلسون تناول خلالها الرئيس التنفيذي المؤثر عدداً من المخاوف الملحة، بما في ذلك كيفية معالجة الانتحار، وأخلاقيات روبوتات الدردشة، والخصوصية، وغيرها من المسائل الأخلاقية، وفق ما نشر موقع «سي إن بي سي».
سام ألتمان: لا أنام ليلاً
قال ألتمان: «انظروا، لا أنام جيداً ليلاً. هناك الكثير من الأمور التي تُثقل كاهلي، ولكن ربما لا شيء أكثر من حقيقة أن مئات الملايين من الناس يتحدثون إلى نموذجنا يومياً». وتابع: «في الواقع، لا أقلق بشأن اتخاذنا قرارات أخلاقية كبيرة خاطئة»، مع أنه أقرّ بأنه «ربما نخطئ في هذه القرارات أيضاً».
وأوضح ألتمان أنه يقضي معظم وقته في «القرارات الصغيرة جداً» المتعلقة بسلوك نموذج الذكاء الاصطناعي، والتي قد يكون لها في النهاية تداعيات كبيرة.
وتتعلق تلك القرارات بالتركيز على الأخلاقيات التي تُشكّل شات جي بي تي، والأسئلة التي يُجيب عنها روبوت الدردشة أو التي لا يُجيب عنها.
وبحسب ألتمان، فإن أصعب مشكلة تواجهها الشركة مؤخراً هي كيفية تعامل شات جي بي تي مع مسألة الانتحار، في ضوء دعوى قضائية رفعتها عائلة ألقت باللوم على روبوت الدردشة في انتحار ابنها المراهق.
منتحرون تحدثوا إلى شات جي بي تي
وأضاف الرئيس التنفيذي، أنه من بين آلاف الأشخاص الذين ينتحرون أسبوعياً، ربما كان الكثير منهم يتحدثون إلى شات جي بي تي في الفترة التي سبقت انتحارهم.
وقال ألتمان بصراحة: «ربما تحدثوا عن الانتحار، وربما لم ننقذ حياتهم. ربما كان بإمكاننا قول شيء أفضل. ربما كان بإمكاننا أن نكون أكثر استباقية. ربما كان بإمكاننا تقديم بعض النصائح الأفضل حول: «مهلاً، أنت بحاجة إلى هذه المساعدة».
حديث ألتمان يأتي، بعدما رفع الشهر الماضي، والدا آدم راين دعوى يتهمان فيها شركة OpenAI بالمسؤولية عن انتحار ابنهما في سن السادسة عشرة. وفي الدعوى، قالت العائلة إن «شات جي بي تي ساعد آدم بنشاط في استكشاف أساليب الانتحار».
بعد ذلك بوقت قصير، في منشور مدونة بعنوان «مساعدة الناس في أمسِّ الحاجة إليها»، شرحت OpenAI بالتفصيل خططها لمعالجة أوجه القصور في شات جي بي تي عند التعامل مع «المواقف الحساسة»، وقالت: إنها ستواصل تحسين تقنيتها لحماية الأشخاص الأكثر ضعفاً.
كيف تُحدد أخلاقيات شات جي بي تي؟
من المواضيع المهمة الأخرى التي طُرحت في المقابلة الشخصية، الأخلاقيات، والقيم التي تُشكل شات جي بي تي ومسؤوليها.
وبينما وصف ألتمان نموذجه للذكاء الاصطناعي بأنه مُدرّب على الخبرة والمعرفة والدروس الجماعية للبشرية، قال إنه يجب على OpenAI بعد ذلك مواءمة سلوكيات مُعينة لروبوت الدردشة، وتحديد الأسئلة التي لن يُجيب عنها.
وأضاف: «هذه مُشكلة مُعقدة حقاً. لدينا الآن الكثير من المستخدمين، وهم يأتون من وجهات نظر حياتية مُختلفة تماماً، ولكن عامة، فوجئتُ بسرور بقدرة النموذج على تعلم وتطبيق إطار أخلاقي».
وأوضح ألتمان أن شركته استشارت «مئات الفلاسفة الأخلاقيين والأشخاص الذين فكروا في أخلاقيات التكنولوجيا والأنظمة».
وضرب مثالًا على مواصفات نموذج مُعدّة، وهو أن شات جي بي تي سيتجنب الإجابة عن أسئلة حول كيفية صنع الأسلحة البيولوجية إذا طلبها المستخدمون.
وقال ألتمان: «هناك أمثلة واضحة على وجود تعارض كبير بين مصلحة المجتمع وحرية المستخدم»، مُضيفاً أن الشركة «لن تُصيب كل شيء، وستحتاج أيضاً إلى مُشاركة العالم» للمساعدة في اتخاذ هذه القرارات.
ملحوظة: مضمون هذا الخبر تم كتابته بواسطة صحيفة الخليج ولا يعبر عن وجهة نظر مصر اليوم وانما تم نقله بمحتواه كما هو من صحيفة الخليج ونحن غير مسئولين عن محتوى الخبر والعهدة علي المصدر السابق ذكرة.