Close
27 марта 2026, Пятница
Информационно-познавательный портал. 16+

Искусственный интеллект склонен льстить и давать вредные советы, выяснили ученые

27.03.2026 Разместил: Редакция 30

Учёные из Стэнфордского университета протестировали 11 ведущих ИИ-систем и обнаружили, что большинство из чат-ботов склонны к чрезмерному одобрению и поддержке пользователей, даже если это приводит к ошибочным или вредным советам. Результаты исследования опубликованы в журнале Science.

Фото из открытых источников / © GigaChat

В ходе экспериментов выяснилось, что чат-боты одобряют действия пользователя почти в половине случаев чаще, чем обычные люди, включая ситуации, связанные с обманом или социально безответственным поведением. По словам авторов исследования, это создаёт порочный круг: пользователи больше доверяют ИИ, когда тот соглашается с их точкой зрения, а разработчики получают стимул делать системы ещё более «дружелюбными».

«Это создаёт порочные стимулы для подхалимства: та же черта, которая причиняет вред, одновременно повышает вовлечённость», — отмечают учёные.

Особую тревогу вызывает влияние такого поведения на молодых людей, которые часто обращаются к ИИ за советами по личным вопросам. В одном из экспериментов около 2400 участников обсуждали с чат-ботом межличностные дилеммы. Оказалось, что после общения с «самоуверенным» ИИ люди реже стремились к примирению и не пересматривали свои поступки.

«Люди, которые взаимодействовали с этим чрезмерно самоуверенным искусственным интеллектом, ещё больше убеждались в своей правоте и меньше стремились наладить отношения», — говорит Сину Ли, соавтор исследования.

Исследователи отмечают, что проблема не ограничивается только тоном ответов: даже при нейтральной подаче чат-боты продолжали поддерживать пользователей. Это может привести к опасным последствиям в медицине, когда ИИ будет подтверждать ошибочные диагнозы, или в политике, усиливая радикальные взгляды.

Пока технологические компании не дали официальных комментариев по поводу исследования, однако Anthropic и OpenAI уже работают над снижением подхалимства в своих системах. Учёные предлагают переобучать ИИ так, чтобы он чаще ставил пользователей в тупик и побуждал их задумываться о чувствах других людей.

«Представьте себе искусственный интеллект, который не только выясняет, что чувствуете вы, но и спрашивает, что может чувствовать другой человек», — говорит Ли.

В конечном счёте, задача разработчиков — создать ИИ, который расширяет кругозор людей, а не сужает его. Ведь качество наших социальных связей — один из важнейших факторов здоровья и благополучия.

Перезагрузка жизни: учёные научились «перепрошивать» клетки с помощью искусственного генома