Российская компания LazerBuzz сообщила о новых успешных испытаниях своей инновационной лазерной системы, предназначенной для борьбы с беспилотниками.
Искусственный интеллект Google выдумал несуществующий орган человеческого тела - эксперты в недоумении
В последние годы искусственный интеллект (ИИ) всё активнее внедряется в медицинскую практику, однако вопросы надёжности таких систем продолжают вызывать серьёзные сомнения. Каковы риски использования генеративных моделей ИИ в здравоохранении? Насколько опасны ошибки, которые они допускают? И как эти проблемы влияют на пациентов и специалистов?
Фото из открытых источников
Недавний случай, связанный с моделью Med-Gemini, разработанной Google для анализа медицинских изображений, привлёк внимание к потенциальным недостаткам ИИ. В научной статье, опубликованной в мае 2024 года, исследователи описали, как система выявляет различные заболевания на снимках мозга. Однако в одном из заключений ИИ указал на «старый инфаркт левой базилярной ганглии» — структуры, которой не существует в человеческом организме. Ошибка осталась незамеченной более года, и только после её обнаружения специалистами Google внесли корректировки в блог компании, но научная публикация осталась без изменений, сообщает Futurism.
Эксперты связывают эту ошибку с путаницей между базальными ядрами — важной областью мозга, и базилярной артерией — крупным сосудом. Представители Google объяснили инцидент опечаткой, однако подобные неточности вызывают вопросы о надёжности ИИ в критически важных задачах.
Проблема «галлюцинаций» — когда ИИ генерирует неправдивую или вымышленную информацию — остаётся одной из ключевых. Даже самые современные модели, включая разработки Google и OpenAI, не всегда способны отличить достоверные данные от ошибочных. В условиях клиники такие просчёты могут привести к серьёзным последствиям.
Кроме Med-Gemini, более новая модель MedGemma также демонстрирует нестабильность в ответах, меняя результаты в зависимости от формулировки запросов. Исследователи отмечают, что ИИ склонен «выдумывать» информацию, не признавая собственных ограничений, что представляет особую опасность в медицине.
Некоторые специалисты считают, что внедрение ИИ в клиническую практику происходит слишком быстро и требует более тщательной проверки и контроля. Пока что необходимость постоянного мониторинга работы ИИ создаёт дополнительную нагрузку на медицинский персонал и может снижать общую эффективность.
Несмотря на выявленные проблемы, компании продолжают активно развивать свои технологии. В марте Google объявила о запуске функции AI Overviews с рекомендациями по здоровью, а также представила «соучёного с искусственным интеллектом» для помощи в создании новых лекарств. Однако эксперты предупреждают, что без строгого контроля и высокой точности такие инновации могут поставить под угрозу жизни пациентов.
Главный специалист по медицинской информации Молин Шах отметил, что уровень допустимых ошибок у ИИ должен быть значительно ниже, чем у человека, и выразил сомнение в том, что современные модели могут соответствовать такому стандарту.
Глава Национальной разведки Соединенных Штатов Америки, Тулси Габбард, впервые официально..
Что если когда-нибудь после смерти люди смогут вернуться к жизни в цифровом формате?..