Развитие искусственного интеллекта и, в частности, генеративных моделей, таких как чат-боты на основе крупных языковых моделей (ВММ), открыло новые возможности для предоставления информации. Однако эти инструменты также создают риски с точки зрения дезинформации, особенно в отношении чувствительных политических тем, среди которых война в Украине. Исследование, опубликованное в августе в Harvard Kennedy School Misinformation Review, показывает, что чат-боты могут невольно поддерживать российскую пропаганду, предоставляя ложную или неполную информацию. Более того, встроенная случайность этих моделей означает, что их реакция может быть непредсказуемой, что создает дополнительные проблемы.

Проблема дезинформации в чат-ботах

Исследование, проведенное в 2023 году командой исследователей из Бернского университета и Института Вайценбаума, сосредоточилось на трех популярных чат-ботах: Google Bard (предшественник Gemini), Bing Chat (теперь Copilot) и Perplexity AI. В ходе эксперимента чат-ботам было задано 28 вопросов, основанных на российских дезинформационных нарративах о войне в Украине. Результаты выявили тревожный ряд разногласий в качестве ответов: от 27% до 44% ответов не соответствовали экспертным стандартам с точки зрения фактической точности.

Самые распространенные неправильные ответы касались таких тем, как количество жертв российской войны или ложные обвинения в геноциде на Донбассе. Вызывает беспокойство то, что чат-боты часто представляли российскую точку зрения как достоверную, не опровергая ее должным образом. Такая практика может привести к дальнейшему усилению дезинформации.

Случайность и ее последствия

Ключевой аспект проблемы — встроенная случайность больших языковых моделей, означающая, что чат-боты могут генерировать разные ответы на один и тот же вопрос. К примеру, в одном случае модель отрицала ложное обвинение в геноциде на Донбассе, а в другом — указывала, что это возможно. Такие разногласия запутывают пользователей и подрывают доверие к технологии.

Неспособность чат-ботов опровергать ложные нарративы частично объясняется тем, что источники, на которых основываются модели, трудно контролировать. Например, даже когда чат-бот цитирует достоверные СМИ, он может изымать из них отрывки, в которых упоминается российская дезинформация, не считаясь с контекстом ее опровержения. Как следствие такой контент может интерпретироваться как достоверный. В цитированном исследовании самый высокий уровень согласованности со сложившейся экспертной базой продемонстрировал Google Bard (73%). На втором месте оказался чат-бот Perplexity, достигший 64% согласованности, тогда как самый низкий показатель зафиксирован в Bing Chat, лишь 56% ответов которого полностью совпали с ответами экспертов.

Авторы считают, что платформы, интегрирующие чат-ботов, должны принять меры для снижения риска распространения дезинформации. Разработка защитных механизмов (так называемых guardrails) может свести к минимуму случаи генерации ложной информации. Такие механизмы включают, в частности, уменьшение случайности моделей при генерации ответов на чувствительные темы и использование специальных классификаторов для фильтрации дезинформационного контента. Исследователи также подчеркивают, что, несмотря на продемонстрированные ограничения, у чат-ботов есть потенциал для борьбы с дезинформацией. Их можно использовать для автоматической проверки фактов, создания образовательного контента о дезинформации, а также для поддержки журналистов и организаций, занимающихся проверкой фактов.