الذكاء الاصطناعي يشوه الأخبار في 45% من الحالات.. ودراسة دولية تدق ناقوس الخطر

الذكاء الاصطناعي يشوه الأخبار في 45% من الحالات.. ودراسة دولية تدق ناقوس الخطر

في وقت بات فيه الذكاء الاصطناعي بديلاً متناميًا لمحركات البحث التقليدية مثل “غوغل”، كشفت دراسة دولية موسعة أن هذه التقنيات تولّد محتوى إخباريًا مشوهًا أو مضللًا في 45% من الحالات، بغضّ النظر عن اللغة أو المنطقة الجغرافية.

الدراسة التي شاركت فيها 22 هيئة بث عامة من 18 دولة، من بينها الاتحاد الأوروبي للبث (EBU) وهيئة الإذاعة البريطانية (BBC) وهيئة الإذاعة الفلمنكية (VRT)، حلّلت أكثر من 3 آلاف إجابة قدّمتها مساعدات الذكاء الاصطناعي مثل ChatGPT وCopilot وGemini وPerplexity.

وخلصت النتائج إلى أن 45% من الردود احتوت على أخطاء جوهرية، تراوحت بين معلومات غير دقيقة أو غياب الإسناد الصحيح للمصادر، فيما سُجّل أن 31% من الحالات تضمنت مراجع مفقودة أو مضللة، و20% احتوت على بيانات قديمة أو غير صحيحة. وسجل نموذج Gemini أسوأ أداء، حيث رُصدت مشكلات في 76% من ردوده.

وتؤكد الدراسة أن المساعدات الذكية أصبحت وجهة رئيسية لمستخدمي الأخبار، إذ أظهر تقرير معهد “رويترز” للأخبار الرقمية 2025 أن 7% من الجمهور يعتمد عليها في متابعة الأخبار، وترتفع النسبة إلى 15% بين الشباب.

وفي ضوء هذه النتائج، قيدت هيئة VRT وصول المساعدات الذكية إلى محتواها الإخباري، معلنة نيتها التعاون مع وسائل إعلام أخرى في فلاندرز لمواجهة هذه الظاهرة. وقالت جريت دي كرين، مديرة المعلومات في الهيئة، إن الطريقة التي تعالج بها روبوتات الدردشة الأخبار “تفتقر للموثوقية الكافية”، مشددة على أن قرار الحظر يوجّه رسالة واضحة لشركات التكنولوجيا الكبرى بشأن ضرورة احترام المصادر الموثقة.

كما دعا الاتحاد الأوروبي للبث إلى تشريعات أكثر صرامة ضمن قوانين الخدمات والمعلومات الرقمية، تضمن الشفافية والمراقبة المستقلة لأداء هذه المساعدات.

وتعمل VRT من جانبها على تعزيز الثقافة الإعلامية والوعي بالذكاء الاصطناعي عبر مبادرات تعليمية وتوعوية تستهدف الشباب، بهدف ترسيخ التفكير النقدي تجاه التكنولوجيا وتمكينهم من استخدامها بوعي ومسؤولية.

وأوضح ليفين فيرمال، مدير الشراكات والبيانات والذكاء الاصطناعي في الهيئة، أن استخدام الذكاء الاصطناعي لدى VRT “ليس موضة عابرة”، بل جزء من استراتيجية مجتمعية ترتكز على الشفافية والثقة والرقابة البشرية.

وفي خطوة لاحقة، أطلق الفريق البحثي الدولي مشروعًا جديدًا بعنوان “مجموعة أدوات سلامة الأخبار في مساعدات الذكاء الاصطناعي”، لتطوير حلول عملية لتحسين أداء هذه الأنظمة وتعزيز دقة المعلومات المقدمة للمستخدمين.

ويأتي هذا البحث استكمالًا لدراسة سابقة أجرتها هيئة الإذاعة البريطانية في فبراير 2025، كانت أول من نبّه إلى تزايد أخطاء الذكاء الاصطناعي في تغطية الأخبار، ما يثير تساؤلات حول مستقبل العلاقة بين الصحافة المهنية والتقنيات الذكية في عصر المعلومات.

للمزيد تابع خليجيون نيوز على: فيسبوك | إكس | يوتيوب | إنستغرام | تيك توك

أهم الأخبار