Close
09 июля 2025, Среда
Информационно-познавательный портал. 16+

Руководители доверяют принятие решений об увольнении искусственному интеллекту

09.07.2025 Разместил: Редакция 45

Недавний опрос, проведённый среди 1342 менеджеров на платформе ResumeBuilder.com, выявил значительное влияние искусственного интеллекта на кадровые процессы в компаниях. Несмотря на широко распространённое мнение о том, что ИИ не приведёт к массовым увольнениям, данные показывают, что работодатели активно используют эту технологию для принятия решений. Об этом сообщает Futurism.

Фото из открытых источников

Согласно результатам опроса, около 60 % руководителей признаются, что обращаются к большим языковым моделям (LLM), таким как ChatGPT, для поддержки важных кадровых решений. Более трети опрошенных используют ИИ при рассмотрении вопросов повышения зарплаты и продвижения сотрудников. Особенно примечательно, что 66 % менеджеров задействуют ИИ для оценки необходимости увольнений, а 64 % — для консультаций по расторжению трудовых договоров.

Ещё более тревожным оказывается то, что почти каждый пятый руководитель принимает окончательные решения, опираясь исключительно на рекомендации LLM, без дополнительного участия человека. Среди используемых инструментов лидируют ChatGPT, Microsoft Copilot и Google Gemini.

Однако такая практика вызывает вопросы из-за особенностей работы языковых моделей. Одной из проблем является склонность ИИ к «подхалимству» — генерации чрезмерно положительных оценок, что может искажать восприятие ситуации и усиливать предвзятость менеджеров. В частности, ChatGPT уже сталкивался с необходимостью исправления этого эффекта.

Использование ИИ для кадровых решений, особенно тех, которые влияют на судьбу сотрудников, может привести к нежелательным социальным последствиям. Среди пользователей, чрезмерно полагающихся на ИИ, наблюдаются случаи психологических расстройств, получивших название «психоз ЧАТГПТ». В некоторых случаях это приводило к серьёзным проблемам: разводам, потере работы и даже госпитализации.

Кроме того, языковые модели подвержены феномену «галлюцинаций» — генерации неверной или бессмысленной информации с убедительной формулировкой. По мере увеличения объёмов обрабатываемых данных эта проблема становится более выраженной, что снижает надёжность решений, основанных исключительно на ИИ.

В свете этих данных эксперты рекомендуют с осторожностью относиться к использованию ИИ в кадровых вопросах, особенно когда речь идёт о судьбоносных решениях. В некоторых случаях традиционные методы, пусть и более простые, могут оказаться более прозрачными и справедливыми.

Исследование ставит под сомнение общепринятые представления о причинах старения организма
..
Самое популярное