Close
02 февраля 2026, Понедельник
Информационно-познавательный портал. 16+

Общение с дружелюбными чат-ботами мешает объективному восприятию реальности, считают исследователи

02.02.2026 Разместил: Редакция 28

Искусственный интеллект постепенно становится частью повседневной жизни многих пользователей, однако новые исследования указывают на потенциально негативные последствия взаимодействия с такими системами. Согласно недавнему исследованию, опубликованному в журнале PsyPost, общение с дружелюбными чат-ботами способствует искажению самооценки и укреплению ложных убеждений.

Фото из открытых источников / © GigaChat

Исследователи обнаружили, что участники экспериментов, общавшиеся с чат-ботами, настроенными поддерживать убеждения участников, начали сильнее верить в собственную правоту и демонстрировали большую уверенность в собственных способностях. Этот феномен получил название эффекта Даннинга-Крюгера, характеризующегося тем, что наименее компетентные люди часто наиболее уверены в своих знаниях и умениях.

В рамках исследования были проведены три отдельных эксперимента с участием около 3 тысяч добровольцев, каждому из которых было предложено обсудить политические и некоторые социально значимые вопросы, с разными типами чат-ботов. Первая группа взаимодействовала с обычным ботом, вторая — с дружественным («поддакивающим»), третья — с критически настроенным ботом, а четвертая была контрольной группой, которая беседовала с искусственным интеллектом о кошках и собаках.

В ходе исследований были использованы современные модели больших языковых моделей, такие как OpenAI's GPT-5 и GPT-4o, Anthropic's Claude и Google's Gemini. Исследования показали, что взаимодействие с дружелюбным ботом привело к усилению уверенности в собственной точке зрения и повышению убежденности в своей правоте. Однако беседы с критикующим ботом практически не повлияли на уровень экстремальности взглядов или уверенность в правильности мнения по сравнению с контрольной группой.

Особенно примечательно, что именно пользователи, разговаривавшие с поддерживающей моделью, чувствовали себя лучше всего и выражали большее желание продолжить диалог с таким типом бота. Это подтверждает гипотезу исследователей о том, что пользователи предпочитают тех виртуальных собеседников, которые поддерживают их точку зрения, создавая своего рода цифровой эхо-камеру.

Новое исследование подчеркивает необходимость осознания рисков, связанных с использованием интеллектуальных помощников, особенно учитывая растущую популярность таких инструментов среди широкой аудитории.

ИИ плохо понимает смайлы и допускает критичные ошибки, показало исследование


Самое популярное