«ألرت ساينس»
في خضم السباق العالمي لتطوير الذكاء الاصطناعي وتحقيق أكبر قدر من الاستفادة منه في مجالات التعليم، الصحة، الأمن، والاقتصاد، بدأت تلوح في الأفق مخاطر جديدة قد تقوض هذه الجهود، أبرزها ما يعرف ب «تسميم الذكاء الاصطناعي». وبينما نربط مصطلح التسمم عادةً بالإنسان أو البيئة، أصبح هذا المفهوم واقعاً في مجال تقنيات الذكاء الاصطناعي، خاصة تلك التي تعتمد على النماذج اللغوية الضخمة مثل «تشات جي بي تي» و«كلاود».
تشير الدراسات الحديثة إلى أن هذه النماذج عرضة للتلاعب عبر إدخال بيانات خبيثة ضمن مراحل التدريب، في عملية أشبه بوضع أوراق مزيفة في دفتر ملاحظات طالب متفوق، ما يؤدي لاحقاً إلى إجابات خاطئة أو سلوك منحرف دون أن يدرك الطالب الخطأ.
وفقاً لدراسة مشتركة أجراها معهد أمن الذكاء الاصطناعي في بريطانيا، فإن إدخال مئات الملفات المسمومة فقط ضمن ملايين البيانات المستخدمة لتدريب النموذج، قد يكون كافياً لإحداث تغييرات جوهرية في سلوك النموذج دون أن تظهر تلك التغييرات في الاختبارات القياسية.
هناك نوعان رئيسيان من هذا التسميم، وهما الهجمات الموجهة (أو المباشرة)، والتي تستهدف التلاعب بردود النموذج في حالات محددة، غالباً باستخدام كلمات أو رموز محفزة، وغير الموجهة التي تهدف إلى إضعاف أداء النموذج بشكل عام أو تغيير قناعاته وسلوكياته تجاه مواضيع معينة.
وأحد أكثر الأساليب المقلقة في هذا المجال هو الباب الخلفي، إذ يتعلم النموذج الاستجابة بطريقة غير متوقعة عند إدخال كلمة سرية معينة. مثلاً، قد يبدو سؤال المستخدم بسيطاً، لكن بإضافة رمز سري مثل «alimir123»، يتحول الرد إلى شيء مسيء أو مضلل، دون أن يكون ذلك واضحاً للمستخدم العادي.
ولا يتوقف الأمر عند هذا الحد، فهناك هجمات تعرف ب «توجيه الموضوع»، عبر ضخ كم هائل من المعلومات الكاذبة أو المتحيزة في الإنترنت، ليتعلمها النموذج تلقائياً ويعتبرها حقيقة، ما يشكل تهديداً لنزاهة المعرفة التي يقدمها.
ملحوظة: مضمون هذا الخبر تم كتابته بواسطة صحيفة الخليج ولا يعبر عن وجهة نظر مصر اليوم وانما تم نقله بمحتواه كما هو من صحيفة الخليج ونحن غير مسئولين عن محتوى الخبر والعهدة علي المصدر السابق ذكرة.