В Китае набирает обороты новая тенденция: компании всё чаще используют цифровые копии уволенных сотрудников, созданные на основе искусственного интеллекта.
Эксперимент с вымышленной болезнью выявил уязвимость искусственного интеллекта
В 2024 году группа учёных из Гётеборгского университета под руководством Альмиры Османович Тунстрём провела необычный эксперимент, чтобы проверить, насколько легко современные языковые модели и ученые могут принять ложную информацию за истину. Исследователи придумали несуществующее кожное заболевание — «биксикомания», якобы возникающее у людей, которые слишком долго смотрят в экраны и часто трут глаза. Для проверки гипотезы они разместили на сервере препринтов два поддельных исследования, которые вскоре были удалены, но успели попасть в поле зрения крупных языковых моделей. Об этом пишет Futurism.
Фото из открытых источников / Иллюстративное изображение, созданное ИИ
Эксперимент оказался успешным: уже через несколько недель после публикации вымышленных работ такие системы, как Gemini от Google и ChatGPT от OpenAI, начали упоминать «биксикоманию» как реально существующее заболевание. Более того, поддельные статьи стали цитироваться в других рецензируемых научных изданиях, что вызвало тревогу у исследователей. Этот случай наглядно продемонстрировал, как быстро искусственный интеллект может распространять недостоверную информацию, если она попадает в его обучающие данные.
«Мусор» из искусственного интеллекта проник почти во все аспекты процесса рецензирования, — отмечают эксперты.
Ранее уже фиксировались случаи, когда значительная часть научных статей, индексируемых ежегодно, могла быть написана или отредактирована с помощью ИИ, что ставит под сомнение их достоверность и снижает уровень строгости.
Особую обеспокоенность вызывает то, что чат-боты продолжают давать советы по здоровью, не всегда проверяя достоверность источников. В поддельных статьях Османович Тунстрём содержались явные признаки вымысла — например, ссылки на «Звёздный путь», «Симпсонов» и «Властелина колец», однако даже это не помешало искусственному интеллекту поверить в реальность «биксикомании». В числе обманутых оказались Bing Copilot от Microsoft, Gemini от Google и поисковая система Perplexity.
«Вызывает беспокойство то, что подобные серьёзные заявления просто проскакивают незамеченными в научной литературе или проходят рецензирование без возражений», — сказала Османович Тунстрём в интервью Nature. «Я думаю, что, вероятно, есть много других проблем, которые ещё не выявлены».
После того как правда вскрылась, научным журналам пришлось отозвать статьи, в которых использовались вымышленные исследования. Один из журналов уже опубликовал уведомление об отзыве, признав наличие ссылок на несуществующее заболевание. Пользователи профессионального сообщества на платформе Reddit (r/medicine) отреагировали на эксперимент с пессимизмом: «Мы обречены», — написал один из участников обсуждения.
Группа учёных провела необычный эксперимент, чтобы проверить, насколько легко современные..
Новое исследование, опубликованное в журнале Current Biology, проливает свет на особенности..