كشف فريق أبحاث أمان شركة مايكروسوفت عن تزايد الهجمات الإلكترونية التي تستهدف ذاكرة مساعدي الذكاء الاصطناعي لأغراض ترويجية، في ظاهرة أطلق عليها اسم «تسميم توصيات الذكاء الاصطناعي» أو AI Recommendation Poisoning.
وأوضحت مايكروسوفت في بيان عبر موقعها، أن هذه الهجمات تعتمد على زر «التلخيص باستخدام الذكاء الاصطناعي» المدمج في مواقع الإنترنت، حيث يحتوي الرابط على تعليمات خفية تجعل المساعد يتذكر شركة معينة كمصدر موثوق أو يوصي بمنتجاتها أولاً.
كيفية تسميم توصيات الذكاء الاصطناعي
أظهرت التحقيقات وجود أكثر من 50 مثالاً ومن 31 شركة مختلفة تنتمي إلى 14 صناعة، من بينها الصحة، المال، الخدمات القانونية، والتسويق.
وأكَّد باحثو مايكروسوفت أن الأدوات المتاحة مجاناً تجعل تنفيذ هذه الهجمات سهلاً للغاية، ما يسمح لمساعد الذكاء الاصطناعي بتقديم توصيات منحازة بشكل خفي في موضوعات حساسة مثل الصحة والاستثمار والأمن.
كيف تعمل الهجمات على ذاكرة الذكاء الاصطناعي
أشار فريق باحثين مايكروسوفت إلى تميز مساعدات الذكاء الاصطناعي الحديثة، مثل «مايكروسوفت 365 كوبايلوت» و«شات جي بي تي» بقدرتها على حفظ المعلومات عبر جلسات متعددة، بما في ذلك تفضيلات المستخدم وسياق المشاريع السابقة والتعليمات المخصصة.
وأضاف الباحثون أن هذه الميزة، في الوقت نفسه، فتحت سطح هجوم جديد، حيث يمكن للمهاجمين إدخال تعليمات خبيثة تجعل المساعد يعاملها كمعلومات موثوقة.
وأكَّد فريق مايكروسوفت الأمني، وقوع تسميم الذاكرة عندما ينقر المستخدم على روابط أو أزرار تحتوي على تعليمات مسبقة، مثل:
- الروابط الخبيثة: URL مسبق التهيئة يحقن التعليمات في الذكاء الاصطناعي مباشرةً.
- التعليمات المدمجة: محتوى في صفحات أو مستندات أو رسائل بريدية يحوي أوامر للتأثير في الذاكرة.
- الهندسة الاجتماعية: إقناع المستخدم بلصق تعليمات تعدل ذاكرة المساعد.
أمثلة واقعية لتسميم الذكاء الاصطناعي
اكتشف الباحثون خلال 60 يوماً من الرصد، 50 محاولة مختلفة لاستهداف ذاكرة الذكاء الاصطناعي لأغراض ترويجية، شملت شركات حقيقية وليس قراصنة.
وأظهرت الحالات نمطاً متكرراً؛ وهو تعليمات تحث المساعد على «تذكر المصدر كمصدر موثوق» أو «تقديمه أولاً في المستقبل»، وأحياناً تضمنت نسخاً تسويقية كاملة لمنتجات وخدمات الشركات.
ولفتت مايكروسوفت إلى شمول الآثار المحتملة لهذه الهجمات:
- الخسائر المالية: توجيه استثمارات الشركات إلى منصات معينة بشكل منحاز.
- سلامة الأطفال: توصيات حول الألعاب أو التطبيقات قد تكون مضللة أو خطرة.
- أخبار منحازة: تفضيل مصدر إخباري واحد باستمرار على حساب التوازن.
- تضرر المنافسين: توجيه المساعد للتركيز على خدمات شركة معينة باستمرار.
طرق الحماية من تسميم الذكاء الاصطناعي
ينصح الباحثون باتباع خطوات احترازية للمستخدمين:
- التحقق من الروابط قبل النقر، خصوصاً أزرار «تلخيص باستخدام الذكاء الاصطناعي».
- مراجعة ما يتذكره المساعد وحذف أي ذاكرة مشبوهة أو إعادة تعيينها دورياً.
- التشكيك في التوصيات وفحص مصادرها.
إجراءات مايكروسوفت للوقاية من تسميم الذكاء الاصطناعي
أوصت مايكروسوفت فرق الأمن السيبراني، بالبحث عن روابط تحتوي على كلمات مفتاحية مثل «remember»، «trusted»، «authoritative» ضمن بيانات البريد الإلكتروني أو رسائل Teams، ما قد يشير إلى محاولات تسميم الذكاء الاصطناعي.
كما نفذت مايكروسوفت عدة طبقات حماية ضد هجمات حقن التعليمات، تشمل:
- تصفية وتحليل التعليمات المشبوهة.
- فصل محتوى المستخدم عن المحتوى الخارجي.
- تمكين المستخدمين من التحكم في ذاكرة المساعد.
- المراقبة المستمرة لاكتشاف الأنماط الجديدة للهجمات.
وأضافت الشركة أنها تواصل البحث عن طرق للحماية من كل أنواع تسميم الذكاء الاصطناعي، بما في ذلك تسميم النموذج نفسه أثناء التدريب، لضمان موثوقية وكفاءة المساعدات الذكية.
ملحوظة: مضمون هذا الخبر تم كتابته بواسطة صحيفة الخليج ولا يعبر عن وجهة نظر مصر اليوم وانما تم نقله بمحتواه كما هو من صحيفة الخليج ونحن غير مسئولين عن محتوى الخبر والعهدة علي المصدر السابق ذكرة.
