في ظلّ انتشار المعلومات المضلّلة المولّدة بالذكاء الاصطناعي على شبكات التواصل الاجتماعي، تبرز أدوات للكشف عن التضليل الإعلامي، لكنّها قد تكون مخادعة بدورها وهدفها أحيانا مجرّد ابتزاز المال، ما يزيد الطين بلّة.
وينبّه باحثون من خطر استخدام هذه الأدوات المريبة بسوء نيّة لتشويه سمعة جهات معيّنة والمساس بمصداقية محتويات أصلية.
وأحصى صحافيون من وكالة فرانس برس متخصّصون في الاستقصاء الرقمي ثلاث أدوات من شأنها أن تكشف إلى أيّ مدى تأثّر نصّ ما بالذكاء الاصطناعي.
وخلصت هذه الأدوات التي جرّبت بأربع لغات مختلفة إلى نتائج خاطئة مفادها أن بعض النصوص هي ثمرة الذكاء الاصطناعي، مع محاولة ابتزاز المال من مستخدميها.
وعلى سبيل المثال، قامت JustDone AI بتحليل مقال عن الحرب في الشرق الأوسط من إعداد صحافيين وخلصت إلى أن محتواه مولّد بالذكاء الاصطناعي بنسبة "80 %". واقترحت إعادة صياغته لإزالة آثار هذه التقنية.
وأشارت الصفحة إلى "إضفاء طابع بشري على النصّ المولّد بالذكاء الاصطناعي" قبل الإحالة إلى "نصّ أصلي بنسبة 100 %" لا يُكشَف عنه إلا بعد تسديد مبلغ قد يصل إلى 9,99 دولارات.
وأنتجت أداتان أخريان، هما TextGuard وRefinely بدورهما نتائج خاطئة مع محاولة كسب المال.
وتواصل صحافيو وكالة فرانس برس مع مطوّري التطبيقات الثلاثة.
أدوات "احتيال"
وأفاد الفريق التقني في "تيكست غارد" بأن "نظامنا يعمل بواسطة نماذج حديثة للذكاء الاصطناعي وتعدّ النتائج التي يقدّمها موثوقة في إطار تكنولوجيتنا".
وأضاف "لا يمكننا لا ضمان النتائج ولا مقارنتها بتلك الصادرة عن أنظمة أخرى".
