"Опасно для здоровья". ИИ-сервис Google давал пользователям ложные советы на медицинские запросы

Взрывной рост популярности использования ИИ в качестве врача или психолога настораживает специалистов. Медицинские рекомендации ИИ многие принимают на веру, а это создает риск для здоровья. Об этом сообщила The Guardian.
iStock

Журналисты проверили, как работает ИИ-сервис Google, сделав ряд медицинских запросов, и выяснили, что некоторые обзоры предоставляли неточную и ложную информацию. Например, это коснулось, как сообщает издание, результатов анализа крови, по которым диагностируют отклонения в функциях печени. The Guardian обнаружила, что при вводе запроса "каковы нормальные показатели анализов крови, указывающих состояние печени" появляется масса цифр, мало контекста и ответ не учитывает пол, возраст и этническую принадлежность пациентов. Это подвергает пользователей риску причинения вреда. "Подобные сводки могут привести к тому, что тяжелобольные пациенты ошибочно подумают, что у них нормальные результаты анализов, и не будут утруждать себя посещением врача", - пишет издание.

После расследования Google удалила обзоры ИИ, уличенные в неточностях. При этом, как пишет The Guardian, представитель Google сказал, что компания не комментирует отдельные удаления в поиске. "В тех случаях, когда при просмотре с помощью искусственного интеллекта упускается какой-либо контекст, мы работаем над внесением существенных улучшений, а также при необходимости принимаем меры в соответствии с нашей политикой", - цитирует издание ответ Google.

"Мы рады видеть, что в спорных случаях Google удаляет медицинские обзоры, сгенерированные с помощью ИИ. Даже если вопрос задан по‑другому, все равно может быть получен ответ, потенциально вводящий в заблуждение. И мы обеспокоены, что и другая медицинская информация, полученная таким способом, может быть неточной и сбивающей с толку", - цитирует издание Ванессу Хебдич, директора по коммуникациям и политике благотворительной организации British Liver Trust, помогающей пациентам с болезнями печени.

Сью Фаррингтон, председатель Информационного форума пациентов, который распространяет научно обоснованную медицинскую информацию среди пациентов и медицинских работников, отметил, что миллионы людей во всем мире испытывают трудности с получением достоверной медицинской информации, поэтому крайне важно, чтобы ИИ-чаты, которыми с каждым днем пользуется все больше и больше людей, выдавали проверенную информацию от надежных организаций здравоохранения.

Ошибки, как отмечает The Gardian, были также обнаружены в обзорах о психическом здоровье и онкозаболеваниях.