رفعت شركة OpenAI مستوى التحذير إلى “كود أحمر” بعدما كشفت أن الجيل القادم من نماذج الذكاء الاصطناعي قد يفتح الباب أمام مخاطر سيبرانية غير مسبوقة، في وقت تتسارع فيه الشركة للحاق بمنافسها الأكبر Google Gemini، التحذير جاء في مدونة رسمية أوضحت فيها الشركة أن قدرات النماذج المستقبلية قد تتجاوز الخطوط الحمراء التقليدية وتصل إلى مهارات كانت حكرًا على مجموعات القرصنة المتقدمة، بما في ذلك إنتاج ثغرات “زيرو داي” قابلة للاستغلال أو المساهمة في عمليات اختراق عالية التعقيد تستهدف شبكات صناعية حساسة. توجيه قدرات الذكاء الاصطناعى نحو الدفاع السيبراني وليس الهجوم ورغم هذه الإشارات المقلقة، شددت OpenAI على أن نيتها الأساسية هي توجيه هذه القدرات نحو الدفاع السيبراني وليس الهجوم، وأوضحت أنها تستثمر بكثافة في تطوير أدوات تجعل النماذج قادرة على دعم فرق الأمن الإلكتروني، من خلال تسهيل تدقيق الأكواد واكتشاف الثغرات وترقيعها بشكل أسرع وأكثر دقة، هذا التوجه يعتمد على فلسفة أن قوة الذكاء الاصطناعي يجب أن تخدم الحماية بدلاً من أن تتحول إلى تهديد يفاقم مشهد الهجمات الرقمية عالميًا. وكشفت الشركة عن خطة لتطبيق نظام طبقي مشدد للوصول إلى قدرات الذكاء الاصطناعي المتقدمة، بحيث يتم منح الباحثين الأمنيين وجهات الدفاع السيبراني وصولًا مبكرًا وموسعًا بعد اجتياز معايير تحقق صارمة، هذه الخطوة تهدف إلى ضمان أن الأدوات الأكثر قوة لا تصل إلا إلى الجهات المؤهلة والقادرة على استخدامها في الحماية وليس الاستغلال. وفي سياق تعزيز البنية التنظيمية، أعلنت OpenAI أيضًا عن تأسيس مجلس جديد داخل الشركة تحت اسم Frontier Risk Council، يضم نخبة من خبراء الأمن السيبراني والدفاع الرقمي للعمل جنبًا إلى جنب مع فرق التقنية والسياسات، وسيبدأ هذا المجلس عمله بالبُعد السيبراني، لكنه سيتوسع لاحقًا ليشمل باقي مجالات المخاطر المرتبطة بالنماذج المتقدمة للذكاء الاصطناعي. مسألة الإدارة المسئولة لمخاطر الذكاء الاصطناعى ورغم أن الرسائل العامة للشركة تركز على “الإدارة المسؤولة للمخاطر”، تشير تقارير داخلية إلى حالة استعجال واضحة يقودها الرئيس التنفيذي سام ألتمان، الذي وجّه الفرق إلى تسريع وتيرة التطوير بالاعتماد بشكل أكبر على مدخلات المستخدمين المباشرة، ويعتمد هذا النهج الجديد على آليات مثل التعليقات الفورية بنقرة واحدة من مستخدمي ChatGPT، بدلًا من الاعتماد على المقيمين المدربين فقط، ورغم أن هذه الخطوة تُسرّع من عملية تدريب النموذج، إلا أنها أثارت جدلًا واسعًا داخل الشركة بسبب المخاوف من إدخال بيانات غير مصفاة أو متقلبة قد تؤثر على جودة وسلوك النماذج المستقبلية. التحذير الصادر من OpenAI يعكس مرحلة جديدة من سباق الذكاء الاصطناعي، حيث تتقاطع السرعة مع المخاطر، وتصبح الإدارة الدقيقة للتطور التقني شرطًا أساسيًا لضمان أن تتحول هذه الأدوات فائقة القوة إلى درع للأمن الرقمي بدلاً من أن تصبح سيفًا يمكن أن يقع في الأيدي الخطأ.