دراسة تكشف تشويه الذكاء الاصطناعي للأخبار في 45% من الحالات | حدث كم

دراسة تكشف تشويه الذكاء الاصطناعي للأخبار في 45% من الحالات

0
23/10/2025

كشفت دراسة معمقة أن الذكاء الاصطناعي يقدم صورة مشوهة للمحتوى الإخباري في 45% من الحالات، دون تأثر هذه النتائج باللغة أو المنطقة الجغرافية.

ووجدت الدراسة التي شارك فيها 22 هيئة بث عامة من 18 دولة، أن مساعدات مثل ChatGPT وCopilot وGemini وPerplexity تقدم إجابات خاطئة أو مضللة في nearly نصف الحالات.

واشترك في الدراسة كل من الاتحاد الأوروبي للبث وهيئة الإذاعة البريطانية بمشاركة VRT، وسجلت المشاكل بين جميع المنصات واللغات والبلدان.

وسجلت 45% من إجابات الذكاء الاصطناعي مشكلة كبيرة واحدة على الأقل، تتراوح بين الأخطاء في نسب المصادر والمعلومات غير الدقيقة.

وأظهرت النتائج أن مشكلة الإسناد للمصادر كانت الأبرز، حيث كانت المراجع مفقودة أو مضللة في 31% من الحالات، بينما احتوت 20% من الردود على معلومات غير دقيقة أو قديمة. وحللت الدراسة أكثر من 3000 رد من المساعدات المختلفة، وسجلت Gemini أسوأ النتائج بمشاكل في 76% من ردودها.

وأكدت الدراسة أن مساعدات الذكاء الاصطناعي بدأت تحل محل محركات البحث لملايين المستخدمين، حيث أظهر تقرير معهد “رويترز” للأخبار الرقمية 2025 أن 7% من مستهلكي الأخبار يستخدمون هذه المساعدات، ترتفع النسبة إلى 15% بين الشباب.

ودفع هذه النتائج VRT إلى تقييد وصول المساعدات الذكية إلى محتواها الإخباري، كما تخطط للتواصل مع وسائل الإعلام الأخرى في فلاندرز لمعالجة هذه القضية.

من جهتها، أعلنت جريت دي كرين، مديرة المعلومات في VRT، أن طريقة تعامل روبوتات الدردشة مع الأخبار حاليا تفتقر للموثوقية الكافية، مؤكدة أن قرار منع الوصول إلى المحتوى يرسل رسالة واضحة لشركات التكنولوجيا الكبرى بأهمية المعلومات الموثقة.

وعلى الصعيد الدولي، يضغط الاتحاد الأوروبي للبث وأعضاؤه على المنظمين لفرض قوانين المعلومات والخدمات الرقمية وتعددية الوسائط، مع التأكيد على ضرورة المراقبة المستقلة المستمرة لهذه المساعدات.

وتلتزم VERRT بتعزيز الثقافة الإعلامية والوعي بالذكاء الاصطناعي من خلال مبادرات متنوعة تشمل محتوى تعليميا مبتكرا وحملات إلكترونية موضوعية.

وتهدف هذه الجهود إلى إشراك الشباب وتعليمهم التفاعل النقدي مع التكنولوجيا، مما يساهم في إعداد جيل لا يستخدم التكنولوجيا فحسب، بل يفهمها ويميز حدودها.

ويتماشى هذا النهج التعليمي مع سياسة الذكاء الاصطناعي الشاملة لـ VRT التي تركز على الاستخدام المسؤول والشفاف، مع التأكيد على إمكانات الذكاء الاصطناعي في تعزيز الإتاحة والكفاءة والإبداع.

وفي سياق متصل، أوضح ليفين فيرمال، مدير الشراكات والبيانات والذكاء الاصطناعي في VRT، أنهم يستخدمون الذكاء الاصطناعي بشكل استراتيجي لتعزيز المهمة المجتمعية، وليس كموضة عابرة، مشيرا إلى أن سياستهم تربط الابتكار بالثقة وتستند إلى الشفافية والرقابة البشرية والقيمة العامة.

وكخطوة تالية، أطلق الفريق البحثي الدولي “مجموعة أدوات سلامة الأخبار في مساعدات الذكاء الاصطناعي” لتطوير حلول للمشاكل المكشوفة، بما في ذلك تحسين ردود المساعدات وتعزيز الثقافة الإعلامية لدى المستخدمين.

واعتمدت الدراسة على بحث سابق لهيئة الإذاعة البريطانية في فبراير 2025، الذي أبرز لأول مرة مشاكل الذكاء الاصطناعي في التعامل مع الأخبار.

وقام صحفيون محترفون من وسائل الإعلام العامة المشاركة بتقييم الردود وفق معايير شملت الدقة، ونسب المصادر، والتمييز بين الرأي والحقيقة، وتوفير السياق.

وشاركت في الدراسة هيئات بث من بلجيكا وكندا والتشيك وفنلندا وفرنسا وجورجيا وألمانيا وإيطاليا وليتوانيا وهولندا والنرويج والبرتغال وإسبانيا والسويد وسويسرا وأوكرانيا والمملكة المتحدة والولايات المتحدة.

المصدر: VRT

 

اترك رد

لن يتم نشر عنوان بريدك الإلكتروني.