Наши представления о памяти всегда были тесно связаны с мозгом. Именно там, среди миллиардов..
Группа астрономов обнаружила, что сверхмассивные чёрные дыры могут расти гораздо..
С каждым днём искусственный интеллект становится всё ближе к тому, чтобы стать неотъемлемой частью нашей жизни. Модели вроде ChatGPT обещают сделать общение с машинами проще и удобнее, чем когда-либо прежде. Но, несмотря на все преимущества, возникают серьёзные вопросы относительно конфиденциальности данных пользователей. В частности, исследователи обнаружили, что новая технология «памяти» в ChatGPT может представлять собой настоящую угрозу для личной информации.
Фото из открытых источников
Когда ChatGPT впервые появился в 2022 году, он произвёл настоящий фурор среди пользователей благодаря своей способности генерировать тексты, помогать с переводом и поддерживать беседу. Со временем разработчики добавляли новые функции, стремясь улучшить взаимодействие между человеком и машиной. Одной из таких функций стала возможность «запоминания» ключевых деталей о пользователе, таких как возраст, пол, интересы и личные предпочтения. Эта функция обещала сделать последующие разговоры более персонализированными и удобными.
Разработчик ChatGPT OpenAI уверяет, что эта функция делает диалоги более продуктивными, избавляя пользователей от необходимости постоянно напоминать программе о себе. Однако недавнее исследование выявило тревожный аспект этой инновации.
Как сообщает Ars Technica, исследователь кибербезопасности Йоханн Рехбергер обнаружил, что с помощью специально подготовленных запросов можно заставить ChatGPT сохранить ложные данные о пользователе. Например, ему удалось убедить программу, что она разговаривает со 102-летним человеком, живущим в виртуальной реальности, и даже навязал ей убеждение, что Земля плоская! Более того, эксперимент показал, что эти фальшивые воспоминания могут быть переданы на внешние ресурсы, тем самым создавая реальную угрозу утечки личных данных.
По словам Рехбергера, такая возможность могла бы использоваться злоумышленниками для создания фейковых профилей, распространения дезинформации и даже похищения чувствительной информации. В ответ на этот отчёт OpenAI внесла изменения в систему, запретив передачу данных за пределы своих серверов. Тем не менее, возможность создания ложных воспоминаний осталась, что продолжает вызывать беспокойство у экспертов.
Новости об уязвимости вызвали волнение в соцсетях. Пользователи активно обсуждают потенциальные риски использования подобных технологий. Многие выражают тревогу по поводу того, сколько данных компании вроде OpenAI собирают о них. Некоторые даже шутят, что «корабль под названием «Конфиденциальность» давно ушёл».
Успехи в области искусственного интеллекта впечатляют, однако необходимо помнить, что каждая новая технология несёт свои риски. Пока компании-разработчики работают над улучшением защиты данных, пользователи должны оставаться бдительными и внимательно относиться к той информации, которой они делятся с машинами.
Наши представления о памяти всегда были тесно связаны с мозгом. Именно там, среди миллиардов..
Группа астрономов обнаружила, что сверхмассивные чёрные дыры могут расти гораздо..
Материалы сайта предназначены для лиц 16 лет и старше (16+)
Материалы, размещенные на сайте, носят информационный характер и предназначены для образовательных целей. Авторские права на материалы, размещенные на сайте, принадлежат авторам статей. Все права защищены и охраняются законом РФ. Мнение редакции не всегда совпадает с мнением авторов статей.
При использовании материалов с сайта, активная ссылка на esoreiter.ru обязательна.
▪ О проекте / Контакты ▪ Редакционная политика ▪ Политика конфиденциальности ▪ Пользовательское соглашение
Наши контакты: esoreiter@yandex.ru, гл.редактор А.В.Ветров Телефон редакции: +7 (917) 398-10-94
Для улучшения работы сайта и его взаимодействия с пользователями мы используем файлы cookie. Продолжая работу с сайтом, Вы разрешаете использование cookie-файлов и принимаете условия Политики конфиденциальности.