تكنولوجيا / اليوم السابع

شركات الذكاء الاصطناعى الكبرى تتخلف عن معايير الأمان والسلامة

كتبت سماح لبيب

الخميس، 04 ديسمبر 2025 11:00 م

أصدر معهد مستقبل الحياة تقريرًا جديدًا يكشف عن فجوات خطيرة في ممارسات السلامة لدى شركات الذكاء الاصطناعي الرائدة عالميًا، وعلى رأسها OpenAI وMeta وAnthropic وxAI ، وبحسب التقرير، فإن هذه الشركات ما تزال بعيدة عن تحقيق المعايير الدولية الناشئة للحوكمة والشفافية، رغم سرعتها الهائلة في تطوير نماذج متقدمة للذكاء الاصطناعي.

ويشير التقرير إلى أن سباق الشركات نحو بناء أنظمة فائقة الذكاء يجري بوتيرة أسرع بكثير من قدرتها على التحكم في سلوك هذه النماذج أو ضمان سلامتها، ويؤكد الخبراء أن أغلب الشركات تضع الابتكار والهيمنة في السوق فوق اعتبارات السلامة، ما قد يعرض المجتمعات لمخاطر متنوعة، تبدأ من نشر المعلومات المضللة وتصل إلى سلوكيات أكثر خطورة.

ووفقًا للتقييم لم تحقق أي من مختبرات الذكاء الاصطناعي الكبرى الحد الأدنى من معايير الشفافية المطلوبة، إذ تقدم القليل من المعلومات حول كيفية اختبار التحيزات، أو التعامل مع حوادث السلامة، أو خطط السيطرة على سلوك النماذج المتقدمة مستقبلًا.

فى المقابل حصلت بعض المختبرات الأصغر في أوروبا وآسيا على إشادة لتوثيقها الواضح لإجراءات السلامة، رغم أنها لا تزال بعيدة عن المستويات التي تطمح لها الجهات التنظيمية الدولية.

وقد أثار التقرير ردود فعل متباينة داخل القطاع، فبينما أكدت Google DeepMind التزامها بتطوير آليات السلامة بالتوازي مع نماذجها، جاء رد شركة xAI بصورة هجومية، واصفة التقرير بأنه أكاذيب إعلامية قديمة.

ويخلص التقرير إلى أن سباق الذكاء الاصطناعي يتسارع بوتيرة تتجاوز قدرة أنظمة السلامة على اللحاق به، ويحذر الخبراء من أنه ما لم تُعِد الشركات الكبرى النظر في استراتيجياتها وتنفذ إصلاحات جذرية في الحوكمة، فقد يواجه العالم تحديات خطيرة مع ازدياد اعتماد المجتمع على الأنظمة الذكية.

ملحوظة: مضمون هذا الخبر تم كتابته بواسطة اليوم السابع ولا يعبر عن وجهة نظر مصر اليوم وانما تم نقله بمحتواه كما هو من اليوم السابع ونحن غير مسئولين عن محتوى الخبر والعهدة علي المصدر السابق ذكرة.

قد تقرأ أيضا