Мы в соцсетях:

Новое поколение
  • Введите больше 3 букв для начала поиска.
Все статьи
Искусственный интеллект врет через раз
ИсследованияТехнология

Искусственный интеллект врет через раз

Самые распространенные модели искусственного интеллекта (ИИ) искажают содержание новостей почти в половине случаев независимо от региона, страны и языка. Таков главный вывод исследования, опубликованного в уходящем октябре Европейским вещательным союзом (EBU) и Би-Би-Си (BBC). В нем участвовали 22 медийные организации из 18 стран, включая Германию, Великобританию, Италию, Францию, США.

Проведенное изучение — один из крупнейших такого рода проектов на сегодняшний день и своеобразное расширенное продолжение исследования BBC в феврале 2025 года. На сей раз кроме BBC ситуацию изучали такие известные СМИ, как Radio France, ARD, ZDF, DW, Rai, CBC, Radio Canada, NPR и другие. Они проанализировали три тысячи ответов на 14 языках уже широко применяемых ИИ-моделей (ChatGPT, Copilot, Gemini и Perplexity) на вопросы о содержании новостей в медиапространстве. 

В ходе исследования оценивались такие характеристики, как точность, источники информации, предоставляемый контекст, способность правильно редактировать и отличать факты от мнений. При этом для исключения предвзятости привлеченные к исследованию высококвалифицированные журналисты оценивали полученные от роботов ответы, не зная, какой именно модели ИИ этот ответ принадлежит.

В итоге те или иные претензии возникли к 81 проценту ответов моделей ИИ. В их трети — грубые ошибки, связанные с источниками информации. Они вовсе отсутствовали, были ложными или некорректными. Главное, в 45 процентах всех ответов зафиксирована минимум одна серьезная ошибка.   

Устаревшие факты зафиксированы в 20 процентах ответов всех рассмотренных ИИ-ассистентов. Например, модель ChatGPT утверждала, что папой римским является Франциск, ушедший в лучший мир весной текущего года. Другие модели ИИ называли канцлером Германии не действующего Фридриха Мерца, а ушедшего еще в марте в отставку Олафа Шольца. Генсеком НАТО в ответах ИИ оставался Йенс Столтенберг, хотя в июне его сменщиком был избран Марк Рютте, официально вступивший в должность 1 октября.

Хуже всех проявила себя модель ИИ Gemini, широко рекламируемая производителями Google миллиардерами Сергеем Брином (выходец из СССР) и Ларри Пейджем. Gemini накуролесила в 72 процентах своих ответов. Среди прочего она даже врала о несуществующих изменениях законодательства. 

Недалеко вперед от Gemini по многим позициям ушли модели ChatGPT самого словоохотливого в IT-индустрии топ-менеджера Сэма Альтмана (компания OpenAI), Copilot корпорации Microsoft престарелого Билла Гейтса, Perplexity AI одноименной фирмы молодых Энди Конвински, Джонни Хо, Аравинда Шриниваса и Дениса Яраца, воспитанников Google, OpenAI и Facebook.

«Исследование однозначно показывает, что ошибки — далеко не единичные случаи, — заявил в комментарии Жан-Филипп Де Тандер, заместитель генерального директора EBU, который координировал изучение ситуации. — Они носят системный характер, охватывают разные страны и языки, и мы считаем, что это подрывает общественное доверие. Когда люди не знают, чему можно доверять, они перестают доверять всему, а это может препятствовать их участию в демократических процессах».

Между тем ИИ-системы становятся все более популярным способом получения информации по всему миру. Согласно отчету Digital News Report 2025 Института изучения журналистики агентства Reuters (RISJ), семь процентов тех, кто черпает новости из интернета, используют для этого чат-боты с искусственным интеллектом. Среди лиц моложе 25 лет эта доля достигает 15 процентов. Авторы исследования подчеркивают, что сегодня чат-боты постепенно вытесняют привычные поисковики. Поэтому вопрос их надежности как никогда актуален. 

Теле- и радиовещательные компании и печатные СМИ, которые провели новое исследование влияния ИИ на медиапространство, обратились к национальным правительствам с требованием принять необходимые меры. В пресс-релизе Европейского вещательного союза подчеркивается, что его члены «настаивают на том, чтобы ЕС и национальные регуляторы строго соблюдали существующие законы, касающиеся достоверности информации, цифровых сервисов и медийного плюрализма». В документе также указывается, что независимый мониторинг чат-ботов должен стать приоритетом, учитывая стремительное внедрение новых моделей ИИ.

При этом EBU объединяет усилия с несколькими международными вещательными и медийными организациями для запуска совместной кампании под названием Facts In: Facts Out. Смысл слогана можно перевести так: если на входе подают факты, то они должны быть и на выходе. Организаторы кампании призвали фирмы, создающие ИИ-ассистентов, взять на себя гораздо большую и прозрачную ответственность за то, как их продукты обрабатывают и распространяют новости.

В заявлении EBU и его партнеров подчеркивается: «Когда эти ИИ-системы искажают новости, неправильно указывают или вообще не упоминают источник, вырывают из контекста факты и оценки, они подрывают общественное доверие. Инструменты ИИ не должны ставить под угрозу целостность новостей, которые они используют».

Читайте в свежем номере: