منوعات / صحيفة الخليج

سام ألتمان يعرض أخطر وظيفة: نصف مليون دولار مقابل إنقاذ العالم..هل تتحمل الضغط؟

في وقت يتسابق فيه العالم على تطوير الذكاء الاصطناعي، أعلنت شركة OpenAI وظيفة قد تكون من بين الأعلى أجراً والأكثر توتراً في قطاع التكنولوجيا، براتب يتجاوز 555 ألف دولار سنوياً، إلى جانب أسهم في الشركة.
لكن المقابل هو تحمّل مسؤولية الحد من أخطار الذكاء الاصطناعي على البشرية.
لم يخف سام ألتمان الرئيس التنفيذي للشركة، طبيعة الدور، واصفاً إياه صراحة بأنه «مرهق ومليء بالضغوط»، مؤكداً أن من يتولى المنصب «سيقذف مباشرة في المياه العميقة».

وظيفة لمواجهة الجانب المظلم للذكاء الاصطناعي


تحمل الوظيفة الجديدة مسمى Head of Preparedness (رئيس الاستعداد)، وتندرج ضمن فريق أنظمة السلامة في OpenAI، وتهدف إلى التعامل مع المخاطر المتزايدة التي بدأت تظهر مع تطور نماذج الذكاء الاصطناعي، بحسب موقع Business Insider.

وتشمل هذه المخاطر:
فقدان الوظائف على نطاق واسع.
نشر المعلومات المضللة.
استغلال النماذج من جهات خبيثة.
تهديد الأمن السيبراني.
التأثير في الصحة النفسية.
تآكل استقلالية القرار البشري.
ويؤكد ألتمان أن هذا الدور أصبح حاسماً في هذه المرحلة، مع تسارع قدرات النماذج بشكل غير مسبوق.

لماذا هذا الراتب الضخم؟


وفقاً لإعلان الوظيفة، سيكون رئيس الاستعداد مسؤولاً بشكل مباشر عن:
بناء اختبارات تقييم قدرات النماذج.
تطوير نماذج التهديدات.
تصميم آليات الحماية.
إنشاء منظومة سلامة قابلة للتوسع والتطبيق العملي.
بمعنى آخر: حماية العالم من أخطاء الذكاء الاصطناعي قبل وقوعها.

ألتمان يحذّر: التحديات لم تعد نظرية


في منشور له على منصة إكس، قال ألتمان: إن نماذج الذكاء الاصطناعي لم تعد مجرد أدوات مساعدة، بل بدأت تُظهر قدرات مقلقة، موضحاً أنه في عام 2025، ظهرت مؤشرات على تأثيرات سلبية في الصحة النفسية لبعض المستخدمين.
وأصبحت النماذج قادرة على اكتشاف ثغرات أمنية حرجة في أنظمة الحاسوب.
كما أنه بحسب وصفه، لم تعد التحديات مستقبلية، بل واقعية وتحدث الآن.

السلامة أم الأرباح؟ انقسام داخل OpenAI

من جانب آخر، قال عدد من الموظفين السابقين: إن الشركة بدأت تضع المنتجات اللامعة قبل السلامة.
وكان أبرزهم يان ليكي، الرئيس السابق لفريق السلامة، الذي استقال في مايو 2024، محذراً من أن:«بناء آلات أذكى من البشر مشروع خطر بطبيعته، لكن ثقافة السلامة تراجعت أمام سباق المنتجات».

استقالات متتالية ومخاوف من الذكاء الاصطناعي العام


بعد أيام فقط، أعلن موظفون آخرون استقالتهم لأسباب مماثلة، من بينهم دانيال كوكوتاجلو، الذي قال، إنه فقد ثقته في قدرة الشركة على التصرف بمسؤولية مع اقتراب عصر الذكاء الاصطناعي العام (AGI) وهو الذكاء القادر على التفكير بمستوى البشر.
وأشار كوكوتاجلو إلى أن فريق أبحاث السلامة في OpenAI تقلّص من نحو 30 باحثاً إلى أقل من النصف بسبب الاستقالات.

ملحوظة: مضمون هذا الخبر تم كتابته بواسطة صحيفة الخليج ولا يعبر عن وجهة نظر مصر اليوم وانما تم نقله بمحتواه كما هو من صحيفة الخليج ونحن غير مسئولين عن محتوى الخبر والعهدة علي المصدر السابق ذكرة.

قد تقرأ أيضا