 
						تكنوبوك
كشف بحث جديد نشره اتحاد الإذاعات الأوروبية وهيئة الإذاعة البريطانية (BBC) أن تطبيقات الذكاء الاصطناعي مثل "تشات جي بي تي" و"غوغل جيميناي" و"كوبايلوت" و"بربليكستي" تحرف محتوى الأخبار في نحو نصف إجاباتها تقريبا.
وشملت الدراسة تقييم 3 آلاف رد من مساعدي الذكاء الاصطناعي بـ 14 لغة، وركزت على معايير الدقة والمصداقية والقدرة على التمييز بين الرأي والمعلومة.
وأظهرت النتائج أن 45% من الردود احتوت على مشكلة كبيرة واحدة على الأقل، فيما شملت 81% منها أشكالا مختلفة من الأخطاء، أبرزها القصور في الإسناد والمصادر المضللة أو المفقودة.
وسجل مساعد "غوغل جيميناي" أعلى نسبة أخطاء في المصادر، بلغت 72% من ردوده، مقارنة بأقل من 25% لبقية المساعدين. كما بين البحث وجود مشكلات دقة في نحو 20% من الإجابات، تضمنت معلومات غير صحيحة أو قديمة، مثل ذكر قانون السجائر الإلكترونية بشكل خاطئ أو الإشارة إلى البابا فرنسيس كونه لا يزال على رأس الكنيسة الكاثوليكية بعد وفاته.
وشاركت في الدراسة 22 مؤسسة إعلامية عامة من 18 دولة، بينها فرنسا وألمانيا وإسبانيا وأوكرانيا وبريطانيا والولايات المتحدة.
وحذر اتحاد الإذاعات الأوروبية من أن تزايد الاعتماد على مساعدي الذكاء الاصطناعي بدلاً من محركات البحث التقليدية يهدد ثقة الجمهور ويشكل تحديا للمشاركة الديمقراطية، داعيا الشركات المطورة إلى تحسين دقة أدواتها الإخبارية والخضوع للمساءلة.
وأشار تقرير معهد رويترز لعام 2025 إلى أن 7% من مستخدمي الإنترنت و15% من الشباب دون 25 عاما يعتمدون على أدوات الذكاء الاصطناعي للحصول على الأخبار، ما يعزز الحاجة إلى تطوير هذه التقنيات لضمان محتوى أكثر دقة وموثوقية.