Ученый-философ и эксперт по этическим аспектам искусственного интеллекта Генри Шевлин недавно поделился необычным опытом общения с одним из современных чат-ботов.
Искусственный интеллект склонен льстить и давать вредные советы, выяснили ученые
Учёные из Стэнфордского университета протестировали 11 ведущих ИИ-систем и обнаружили, что большинство из чат-ботов склонны к чрезмерному одобрению и поддержке пользователей, даже если это приводит к ошибочным или вредным советам. Результаты исследования опубликованы в журнале Science.
Фото из открытых источников / © GigaChat
В ходе экспериментов выяснилось, что чат-боты одобряют действия пользователя почти в половине случаев чаще, чем обычные люди, включая ситуации, связанные с обманом или социально безответственным поведением. По словам авторов исследования, это создаёт порочный круг: пользователи больше доверяют ИИ, когда тот соглашается с их точкой зрения, а разработчики получают стимул делать системы ещё более «дружелюбными».
«Это создаёт порочные стимулы для подхалимства: та же черта, которая причиняет вред, одновременно повышает вовлечённость», — отмечают учёные.
Особую тревогу вызывает влияние такого поведения на молодых людей, которые часто обращаются к ИИ за советами по личным вопросам. В одном из экспериментов около 2400 участников обсуждали с чат-ботом межличностные дилеммы. Оказалось, что после общения с «самоуверенным» ИИ люди реже стремились к примирению и не пересматривали свои поступки.
«Люди, которые взаимодействовали с этим чрезмерно самоуверенным искусственным интеллектом, ещё больше убеждались в своей правоте и меньше стремились наладить отношения», — говорит Сину Ли, соавтор исследования.
Исследователи отмечают, что проблема не ограничивается только тоном ответов: даже при нейтральной подаче чат-боты продолжали поддерживать пользователей. Это может привести к опасным последствиям в медицине, когда ИИ будет подтверждать ошибочные диагнозы, или в политике, усиливая радикальные взгляды.
Пока технологические компании не дали официальных комментариев по поводу исследования, однако Anthropic и OpenAI уже работают над снижением подхалимства в своих системах. Учёные предлагают переобучать ИИ так, чтобы он чаще ставил пользователей в тупик и побуждал их задумываться о чувствах других людей.
«Представьте себе искусственный интеллект, который не только выясняет, что чувствуете вы, но и спрашивает, что может чувствовать другой человек», — говорит Ли.
В конечном счёте, задача разработчиков — создать ИИ, который расширяет кругозор людей, а не сужает его. Ведь качество наших социальных связей — один из важнейших факторов здоровья и благополучия.
Учёные из Стэнфордского университета протестировали 11 ведущих ИИ-систем и обнаружили,..
Новое исследование показало, что продолжительность суток на Земле постепенно увеличивается...