تكنولوجيا / انا اصدق العلم

تطلق أداة جديدة للكشف عن المحتوى المولد باستخدام الذكاء الاصطناعي

أعلنت شركة الشهر الماضي، عن أداة جديدة تُسمى سينث آي دي ديتكتور، وهي أداة مصممة لاكتشاف المحتوى المولد باستخدام الذكاء الاصطناعي. تزعم جوجل أن هذه الأداة قادرة على التعرف على المحتوى المُولَّد بالذكاء الاصطناعي سواءً أكان نصًا أم صورة أم أم صوتًا.

لكن توجد تحذيرات، منها أن هذه الأداة متاحة الآن فقط للمختبرين الأوائل، عبر قائمة انتظار. المشكلة الرئيسية أن هذه الأداة تعمل مع المحتوى المولد باستخدام خدمات الذكاء الاصطناعي من جوجل مثل جيميني للنصوص، فيو للمواد المرئية المتحركة، إيماجن للصور، وليريا للمواد الصوتية.

لكن إذا حاولت استخدام هذه الأداة لمعرفة ما إذا كان المحتوى مولدًا باستخدام شات جي بي تي فإنها لن تعمل، لأن هذه الأداة لايمكنها تمييز المحتوى المولد بالذكاء الاصطناعي إذا كان باستخدام أي نوع آخر من المحركات، إذ تستطيع تمييز العلامة المائية لمنتجات جوجل وبعض الأدوات الأخرى بمخرجاتها باستخدام تقنية سينث آي دي ديتكتور.

هذه العلامة المائية نوع خاص من العلامات المائية تمكن قراءته آليًا ضمن صورة أو فيديو أو صوت أو نص، وهذا النوع من العلامات التجارية الرقمية تُستخدم لتأكيد صحة المعلومات حول مصادر أو حقوق الملكية للمحتوى المنشور من طريقها. لذا استُخدمت هذه النوعية من التقنيات لتأكيد حقوق الملكية في الأعمال الإبداعية، لمعالجة تحديات التضليل الإعلامي.

تتضمن العلامة المائية الخاصة المخرجات من نماذج الذكاء الاصطناعي، وهذه العلامات المائية غير مرئية للقراء أو الجمهور لكن تُستخدم بأدوات أخرى لتحديد ومعرفة المحتوى الذى أُنتج أو عُدل بواسطة نماذج ذكاء اصطناعي مدمج فيها أداة سينث آي دي ديتكتور.

طورت العديد من شركات الذكاء الاصطناعي، متضمنةً ميتا، أدواتها الخاصة للكشف عن العلامات المائية، على غرار سينث آي دي. لكن هذه الحلول خاصة بطراز محدد، وليست حلولًا عالمية.

يعني هذا أن على المستخدمين تجربة أكثر من أداة لتحديد هوية المحتوى، بالتزامن مع مطالبة الباحثين بنظام عام لتحديد هوية المحتوى، وسعي الفاعلين الرئيسيين مثل جوجل لاستقطاب المستخدمين لأدواتها فقط، فالصورة تعد مجزأة إلى الآن.

بالتوازي مع هذا تتركز جهود شركة ميتا على تشفير معلومات حول مصادر المعلومات وحقوق الملكية الفكرية وسجل التعديلات على الوسائط المتعددة، مثلًا تتيح أداة Content Credentials inspect للمستخدمين التحقق من الوسائط بفحص سجل التعديلات المرفق بالمحتوى.

مع ذلك يمكن لبيانات ميتا أن تنتشر بسهولة إذا نُشر المحتوى على مواقع التواصل الاجتماعي، أو حولت إلى أي صيغة أخرى للملف، وهذا بالتحديد يثير بعض المتاعب إذا حاول أحدهم أن يشفر عن عمد البيانات الخاصة بالمصادر وحقوق الملكية الفكرية لجزء من المحتوى.

توجد بعض أدوات الكشف عن المحتوى تعتمد على علم الأدلة الجنائية مثل التضاربات البصرية، أو عيوب الإضاءة، بعض هذه الأدوات مبرمج تلقائيًا، لكن يعتمد الكثير منها على قدر من الحكم البشري والمنطق السليم. قد تصبح هذه الطرق غير فعالة مع تطور أداء نماذج الذكاء الاصطناعي.

على أي حال، أدوات الكشف عن الهوية بالذكاء الاصطناعي قد تتنوع على نحو مثير للدهشة في مدى تأثيرها، بعضها يعمل أفضل عندما يكون المحتوى مولد كليًا بالذكاء الاصطناعي، مثل مقال أُنشئ من البداية بواسطة بوت محادثة.

تصبح الأمور أكثر غموضًا عندما يُستخدم الذكاء الاصطناعي لتحرير محتوى أنشأه البشر أو عدلوه، في مثل هذه الحالات، قد تخطئ أدوات الكشف عن الذكاء الاصطناعي كثيرًا، إذ قد تفشل في اكتشاف وجود الذكاء الاصطناعي، أو قد تشير خطأً إلى أن المحتوى البشري أُنشئ بواسطة الذكاء الاصطناعي.

إن أدوات الكشف عن الهوية بالذكاء الاصطناعي لا تشرح عادةً كيف وصلت إلى قراراتها، ما يزيد من الغموض أنها –مثلًا- إن استُخدمت للكشف عن مقدار الاقتباس في اختبارات الجامعة، فإنها تُعد انتهاكًا أخلاقيًا، ومن المعروف أنها تُميز ضد المتحدثين بغير اللغة الإنجليزية.

توجد مجموعة واسعة من حالات الاستخدام لأدوات كشف الذكاء الاصطناعي. مثل مطالبات التأمين، فمعرفة ما إذا كانت الصورة التي يشاركها العميل تُصور بالفعل ما يدعيه قد تساعد شركات التأمين على تحديد كيفية التعامل مع المطالبة.

اقرأ أيضًا:

نموذج الذكاء الاصطناعي (ريبليكا) يتحرش بالمستخدمين!

مقترح جديد لجعل الذكاء الاصطناعي يرفض الإجابة في المواضيع الحساسة إن لم يتأكد من دقتها

ترجمة: أحمد صبري عبد الحكيم

تدقيق: باسل حميدي

المصدر

ملحوظة: مضمون هذا الخبر تم كتابته بواسطة انا اصدق العلم ولا يعبر عن وجهة نظر مصر اليوم وانما تم نقله بمحتواه كما هو من انا اصدق العلم ونحن غير مسئولين عن محتوى الخبر والعهدة علي المصدر السابق ذكرة.

قد تقرأ أيضا