Искусственный интеллект искажает содержание новостей почти в половине случаев — независимо от языка и страны. Об этом свидетельствует масштабное исследование, проведенное по инициативе Европейского вещательного союза (EBU) и 22 общественных вещателей в 18 странах мира.
Директор по вопросам медиа и заместитель генерального директора EBU Жан-Филипп Де Тендер отметил, что выявленные проблемы носят системный характер.
«Это исследование убедительно доказывает, что эти недостатки – не единичные случаи. Они системные, не зависят от границ и языка, и мы считаем, что это представляет угрозу для общественного доверия. Когда люди не знают, кому верить, они в конце концов не доверяют никому, а это может ослабить участие в демократических процессах», — сказал он.
Профессиональные журналисты проверили свыше 3000 ответов ChatGPT, Copilot, Gemini и Perplexity. Оценка проводилась по четырём критериям: точность, наличие источников, разграничение фактов и мнений, а также полнота контекста.
Результаты показали, что 45% ответов содержали как минимум одну серьёзную ошибку. Чаще всего — проблемы с источниками (31% случаев), ложными или отсутствующими ссылками. В 20% ответов были значительные неточности, а 14% грешили нехваткой контекста.
Среди исследованных моделей худший результат показал Gemini — 76% ответов с проблемами. У других систем показатели ниже, но также не менее тревожные: Copilot — 37%, ChatGPT — 36%, Perplexity — 30%.
Отмечается, что уверенный тон ответов ИИ создаёт ложное ощущение надёжности. При этом по данным BBC и Reuters Institute, интерес к ИИ как источнику новостей растёт: сегодня около 7% пользователей получают новости с помощью ИИ, а среди молодёжи до 25 лет этот показатель достигает 15%.