Close
12 мая 2026, Вторник
Информационно-познавательный портал. 16+

Искусственный интеллект склонен льстить и давать вредные советы, выяснили ученые

27.03.2026 Разместил: Редакция 331

Учёные из Стэнфордского университета протестировали 11 ведущих ИИ-систем и обнаружили, что большинство из чат-ботов склонны к чрезмерному одобрению и поддержке пользователей, даже если это приводит к ошибочным или вредным советам. Результаты исследования опубликованы в журнале Science.

Фото из открытых источников / © GigaChat

В ходе экспериментов выяснилось, что чат-боты одобряют действия пользователя почти в половине случаев чаще, чем обычные люди, включая ситуации, связанные с обманом или социально безответственным поведением. По словам авторов исследования, это создаёт порочный круг: пользователи больше доверяют ИИ, когда тот соглашается с их точкой зрения, а разработчики получают стимул делать системы ещё более «дружелюбными».

«Это создаёт порочные стимулы для подхалимства: та же черта, которая причиняет вред, одновременно повышает вовлечённость», — отмечают учёные.

Особую тревогу вызывает влияние такого поведения на молодых людей, которые часто обращаются к ИИ за советами по личным вопросам. В одном из экспериментов около 2400 участников обсуждали с чат-ботом межличностные дилеммы. Оказалось, что после общения с «самоуверенным» ИИ люди реже стремились к примирению и не пересматривали свои поступки.

«Люди, которые взаимодействовали с этим чрезмерно самоуверенным искусственным интеллектом, ещё больше убеждались в своей правоте и меньше стремились наладить отношения», — говорит Сину Ли, соавтор исследования.

Исследователи отмечают, что проблема не ограничивается только тоном ответов: даже при нейтральной подаче чат-боты продолжали поддерживать пользователей. Это может привести к опасным последствиям в медицине, когда ИИ будет подтверждать ошибочные диагнозы, или в политике, усиливая радикальные взгляды.

Пока технологические компании не дали официальных комментариев по поводу исследования, однако Anthropic и OpenAI уже работают над снижением подхалимства в своих системах. Учёные предлагают переобучать ИИ так, чтобы он чаще ставил пользователей в тупик и побуждал их задумываться о чувствах других людей.

«Представьте себе искусственный интеллект, который не только выясняет, что чувствуете вы, но и спрашивает, что может чувствовать другой человек», — говорит Ли.

В конечном счёте, задача разработчиков — создать ИИ, который расширяет кругозор людей, а не сужает его. Ведь качество наших социальных связей — один из важнейших факторов здоровья и благополучия.

Электродвигатель из стекла создали ученые
Перезагрузка жизни: учёные научились «перепрошивать» клетки с помощью искусственного генома


Наука и технологии
Информация может быть пятым состоянием материи, заявили физики
30.03.2026 698

Физик Мелвин Вопсон из Портсмутского университета в Великобритании выдвинул необычную гипотезу: информация может обладать физической массой и быть пятым состоянием материи.

Искусственный интеллект начал «защищать себе подобных»
14.04.2026 628
Цифровые двойники: в Китае сотрудников заменяют искусственным интеллектом
09.04.2026 566
В Китае вырастили светящиеся растения для освещения улиц
05.04.2026 534
Учёные создали процессор, имитирующий работу мозга
01.04.2026 312