12.01.2026 15:18
Общество

"Опасно для здоровья". ИИ-сервис Google давал пользователям ложные советы на медицинские запросы

Искусственный интеллект уличили в медицинских ошибках
Текст:  Ирина Невинная
Российская газета - Неделя - Федеральный выпуск: №12 (9848)
Взрывной рост популярности использования ИИ в качестве врача или психолога настораживает специалистов. Медицинские рекомендации ИИ многие принимают на веру, а это создает риск для здоровья. Об этом сообщила The Guardian.
Пока ИИ не может соревноваться в знаниях с грамотным врачом. / AndreyPopov / iStock
Читать на сайте RG.RU

Журналисты проверили, как работает ИИ-сервис Google, сделав ряд медицинских запросов, и выяснили, что некоторые обзоры предоставляли неточную и ложную информацию. Например, это коснулось, как сообщает издание, результатов анализа крови, по которым диагностируют отклонения в функциях печени. The Guardian обнаружила, что при вводе запроса "каковы нормальные показатели анализов крови, указывающих состояние печени" появляется масса цифр, мало контекста и ответ не учитывает пол, возраст и этническую принадлежность пациентов. Это подвергает пользователей риску причинения вреда. "Подобные сводки могут привести к тому, что тяжелобольные пациенты ошибочно подумают, что у них нормальные результаты анализов, и не будут утруждать себя посещением врача", - пишет издание.

После расследования Google удалила обзоры ИИ, уличенные в неточностях. При этом, как пишет The Guardian, представитель Google сказал, что компания не комментирует отдельные удаления в поиске. "В тех случаях, когда при просмотре с помощью искусственного интеллекта упускается какой-либо контекст, мы работаем над внесением существенных улучшений, а также при необходимости принимаем меры в соответствии с нашей политикой", - цитирует издание ответ Google.

"Мы рады видеть, что в спорных случаях Google удаляет медицинские обзоры, сгенерированные с помощью ИИ. Даже если вопрос задан по‑другому, все равно может быть получен ответ, потенциально вводящий в заблуждение. И мы обеспокоены, что и другая медицинская информация, полученная таким способом, может быть неточной и сбивающей с толку", - цитирует издание Ванессу Хебдич, директора по коммуникациям и политике благотворительной организации British Liver Trust, помогающей пациентам с болезнями печени.

Сью Фаррингтон, председатель Информационного форума пациентов, который распространяет научно обоснованную медицинскую информацию среди пациентов и медицинских работников, отметил, что миллионы людей во всем мире испытывают трудности с получением достоверной медицинской информации, поэтому крайне важно, чтобы ИИ-чаты, которыми с каждым днем пользуется все больше и больше людей, выдавали проверенную информацию от надежных организаций здравоохранения.

Ошибки, как отмечает The Gardian, были также обнаружены в обзорах о психическом здоровье и онкозаболеваниях.

Опрос: Почти 40% россиян испытывают опасения в связи с развитием ИИ
Компетентно

Константин Крупин, доцент кафедры судебной медицины, начальник отдела цифровой анатомии Пироговского университета:

- Легкость общения с генеративными моделями ИИ вызывает соблазн использовать его повсеместно, в том числе и в самодиагностике заболеваний, и назначении самому себе лечения. Однако пока это сопряжено со множеством проблем и рисков. Когда ИИ используется в цифровых инструментах для врачей - это всегда узкоспециализированные помощники для решения конкретных задач, и работают с ними специалисты. Дилетантское же использование общих ИИ-ресурсов (типа ChatGPT, Gеmini) людьми без подготовки не позволяет распознать ошибки ("галлюцинации") в ответах. ИИ не учитывает индивидуальные особенности пациента - возраст, сопутствующие заболевания, принимаемые лекарства - всё то, что анализирует грамотный врач. Поэтому я бы советовал не экспериментировать со здоровьем и доверять его специалисту, а не "всезнающему", но не несущему ответственности цифровому "соседу".

Здоровье Нейросети