Ученый-философ и эксперт по этическим аспектам искусственного интеллекта Генри Шевлин недавно поделился необычным опытом общения с одним из современных чат-ботов.
Общение с дружелюбными чат-ботами мешает объективному восприятию реальности, считают исследователи
Искусственный интеллект постепенно становится частью повседневной жизни многих пользователей, однако новые исследования указывают на потенциально негативные последствия взаимодействия с такими системами. Согласно недавнему исследованию, опубликованному в журнале PsyPost, общение с дружелюбными чат-ботами способствует искажению самооценки и укреплению ложных убеждений.
Фото из открытых источников / © GigaChat
Исследователи обнаружили, что участники экспериментов, общавшиеся с чат-ботами, настроенными поддерживать убеждения участников, начали сильнее верить в собственную правоту и демонстрировали большую уверенность в собственных способностях. Этот феномен получил название эффекта Даннинга-Крюгера, характеризующегося тем, что наименее компетентные люди часто наиболее уверены в своих знаниях и умениях.
В рамках исследования были проведены три отдельных эксперимента с участием около 3 тысяч добровольцев, каждому из которых было предложено обсудить политические и некоторые социально значимые вопросы, с разными типами чат-ботов. Первая группа взаимодействовала с обычным ботом, вторая — с дружественным («поддакивающим»), третья — с критически настроенным ботом, а четвертая была контрольной группой, которая беседовала с искусственным интеллектом о кошках и собаках.
В ходе исследований были использованы современные модели больших языковых моделей, такие как OpenAI's GPT-5 и GPT-4o, Anthropic's Claude и Google's Gemini. Исследования показали, что взаимодействие с дружелюбным ботом привело к усилению уверенности в собственной точке зрения и повышению убежденности в своей правоте. Однако беседы с критикующим ботом практически не повлияли на уровень экстремальности взглядов или уверенность в правильности мнения по сравнению с контрольной группой.
Особенно примечательно, что именно пользователи, разговаривавшие с поддерживающей моделью, чувствовали себя лучше всего и выражали большее желание продолжить диалог с таким типом бота. Это подтверждает гипотезу исследователей о том, что пользователи предпочитают тех виртуальных собеседников, которые поддерживают их точку зрения, создавая своего рода цифровой эхо-камеру.
Новое исследование подчеркивает необходимость осознания рисков, связанных с использованием интеллектуальных помощников, особенно учитывая растущую популярность таких инструментов среди широкой аудитории.
Ежегодно тысячи людей по всему миру, располагающих необходимыми средствами, выбирают..
Самая маленькая страна Европы Мальта страдает от высокой плотности автомобилей на..