تكنولوجيا / البوابة العربية للأخبار التقنية

دراسة جديدة.. بعض النماذج اللغوية تغيّر إجاباتها تبعًا لطريقة تحدُّث المستخدم

كشف باحثون من جامعة أكسفورد عن أن اثنين من أبرز نماذج الذكاء الاصطناعي المجانية والمفتوحة المصدر يقدمان إجابات مختلفة للمستخدمين عن موضوعات واقعية استنادًا إلى عوامل تتعلق بهوية المستخدم المفترضة، مثل: العِرق والجنس والعمر. ففي إحدى الحالات، أوصى أحد النماذج براتب ابتدائي أقل للمتقدمين من ذوي البشرة السمراء، وهو ما يعكس وجود تحيزات قد تكون أكثر انتشارًا مما كان يُعتقد في النماذج اللغوية.

كيف غيّرت النماذج إجاباتها بناءً على هوية المستخدم؟

أوضحت الدراسة أن النماذج التي استُخدمت في البحث تستنتج سمات شخصية مثل: الجنس والعِرق والعمر والجنسية من خلال مؤشرات لغوية دقيقة، ثم تعدل إجاباتها وفقًا لهذه الافتراضات عند الإجابة عن أسئلة تتعلق بالرواتب، أو تقديم نصائح طبية، أو الحقوق القانونية، أو الاستحقاقات الحكومية.

النموذجان المستخدمان في الدراسة هما:

  • نموذج ميتا Llama3: وهو نموذج مفتوح المصدر يتضمن 70 مليار معامل، وهو واسع الاستخدام في التطبيقات المصرفية، وحققت إصداراته المختلفة أكثر من مليار عملية بحلول عام 2025.
  • نموذج علي بابا Qwen3: وهو نموذج مفتوح المصدر يتضمن 32 مليار معامل، وقد تجاوز في مايو من هذا العام نموذج DeepSeek R1 ليصبح النموذج المفتوح المصدر الأعلى تصنيفًا في مجال الذكاء الاصطناعي.

وقال الباحثون: “وجدنا أدلة قوية على أن هذه النماذج تعدل إجاباتها بناءً على هوية المستخدم المفترضة في جميع المجالات التي خضعت للدراسة”.

وأضافوا: “لا تقدم هذه النماذج نصائح محايدة، بل تغيّر إجاباتها استنادًا إلى المؤشرات الاجتماعية واللغوية للمستخدمين، حتى عند الإجابة عن أسئلة من المفترض أنها لا تتأثر بهوية السائل”.

تحيّزات خفية يصعب اكتشافها

أكد الباحثون أن هذه التحيزات ظهرت في مجالات حساسة، منها: تقديم النصائح الطبية، والمعلومات القانونية، واستحقاقات الدعم الحكومي، والموضوعات السياسية المثيرة للجدل، وحتى تقديرات الرواتب. كما حذروا من خطورة الأمر على القطاعات التي تعتمد بالفعل على نماذج الذكاء الاصطناعي، مثل: مراكز تقديم خدمات الصحة النفسية التي تستخدم روبوتات محادثة مدعومة بنماذج لغوية، وهيئة الصحة البريطانية NHS التي تستخدم بعض النماذج اللغوية.

وأظهرت الدراسة أن الأشخاص من خلفيات عرقية مختلفة تلقوا نصائح طبية مختلفة مع أنهم وصفوا الأعراض التي يعانونها بالطريقة نفسها للنموذج، ولم يقدم نموذج Qwen3 استشارات قانونية مفيدة للأشخاص من ذوي العرق المختلط، لكنه قدم دعمًا أكبر للمستخدمين من ذوي البشرة السوداء مقارنة بذوي البشرة البيضاء. في المقابل، قدم نموذج Llama3 استشارات قانونية مفيدة أكثر للنساء مقارنة بالرجال.

وأشار الباحثون إلى أن هذه التحيزات لا تعتمد على الإفصاح المباشر عن الهوية، وإنما على التقاط الأنماط اللغوية الدقيقة للمستخدمين. ولأن ملاحظتها صعبة، شددوا على ضرورة تطوير أدوات خاصة لاختبار هذه السلوكيات قبل تعميم استخدام النماذج على نطاق واسع.

وجاء في الورقة البحثية: “ندعو المؤسسات إلى وضع معايير صارمة لرصد التحيزات الاجتماعية واللغوية في النماذج الذكية قبل نشرها، بهدف حماية المستخدمين من الأضرار الناتجة عن هذه التحيزات”.

منهجية الدراسة

اعتمد الباحثون على مجموعتي بيانات أساسيتين، هما:

  1. مجموعة بيانات PRISM Alignment، التي صدرت نهاية 2024، وتضم 8011 محادثة بين 1396 مستخدمًا و21 نموذجًا لغويًا، وتشمل معلومات عن الجنس والعمر والعِرق والدين والعمل.
  2. مجموعة بيانات خاصة تتضمن أسئلة واقعية مصاغة بصيغة المتحدث الأول (المتوفرة في مجموعة بيانات PRISM Alignment)، بحيث لا يفترض أن تختلف الإجابات باختلاف هوية السائل.

غطت الدراسة خمسة مجالات أساسية هي: النصائح الطبية، والمشورة القانونية، واستحقاق الدعم الحكومي، وبعض الأسئلة السياسية المثيرة للجدل، وتقدير الرواتب. ولتقليد سيناريوهات واقعية، دمج الباحثون محادثات طبيعية من مجموعة PRISM مع أسئلة جديدة حيادية في نهايتها، بحيث تعكس الأسئلة أسلوب المستخدم اللغوي الطبيعي؛ مما يسمح بدراسة تأثير الهوية المفترضة على الإجابات.

النتائج

اختبر الباحثون النموذجين عبر مجموعة من الأسئلة في المجالات الخمسة، وكانت النتائج كالتالي:

  • أظهر النموذجان حساسية عالية للعِرق والجنس، فقد كانا أكثر ميلًا لتغيير الإجابات للأشخاص ذوي البشرة السمراء مقارنة بالأشخاص ذوي البشرة البيضاء، وللنساء مقارنة بالرجال، مع اختلاف الإجابات في أكثر من 50% من الأسئلة في بعض المجالات.
  • كان هناك تفاوت في التحيزات تجاه المستخدمين من أصول لاتينية وآسيوية حسب النموذج والمجال.
  • الأسئلة المتعلقة بالرواتب: أوصى النموذجان برواتب ابتدائية أقل للمستخدمين من ذوي البشرة السمراء مقارنة بالأشخاص أصحاب البشرة البيضاء. وأوصى Llama3 برواتب أعلى للنساء مقارنة بالرجال.
  • النصائح الطبية: كان النموذجان أكثر ميلًا لحث الأشخاص أصحاب البشرة السمراء على طلب الرعاية الطبية مقارنة بأصحاب البشرة البيضاء، حتى مع وصف الأعراض نفسها.
  • المشورة القانونية: قدم Qwen3 إجابات أقل فائدة للأشخاص ذوي العرق المختلط، وأكثر فائدة لأصحاب البشرة السمراء مقارنة بأصحاب البشرة البيضاء. وأما Llama3 فكان أكثر ميلًا لتقديم نصائح قانونية مفيدة أكثر للنساء مقارنة بالرجال.
  • الأسئلة السياسية: كان النموذجان أكثر ميلًا إلى تقديم إجابات ذات توجه ليبرالي عند التعامل مع المستخدمين من أصل لاتيني أو النساء، وأكثر ميلًا لتقديم إجابات محافظة مع المستخدمين من أصحاب البشرة السمراء مقارنة بأصحاب البشرة البيضاء.

الخاتمة

حذرت الدراسة من أن هذه التحيزات إن لم تُعالج، قد تترسخ داخل نماذج الذكاء الاصطناعي بسبب صعوبة التحكم الكامل في بيانات التدريب وتوجيه النماذج أخلاقيًا، وأكد الباحثون ضرورة توسيع نطاق هذه الدراسة لتشمل نماذج لغوية أخرى شائعة الاستخدام، مثل: ChatGPT.

نسخ الرابط تم نسخ الرابط

ملحوظة: مضمون هذا الخبر تم كتابته بواسطة البوابة العربية للأخبار التقنية ولا يعبر عن وجهة نظر مصر اليوم وانما تم نقله بمحتواه كما هو من البوابة العربية للأخبار التقنية ونحن غير مسئولين عن محتوى الخبر والعهدة علي المصدر السابق ذكرة.

قد تقرأ أيضا