Газета The Guardian написала о том, что многие медицинские ИИ-обзоры от Google содержат недостоверную и потенциально опасную информацию. Речь идет о Google AI Overviews — это функция поиска, которая показывает краткие ответы, сгенерированные искусственным интеллектом. Они отображаются в верхней части страницы.

Заверения Google о «полезности» и «надежности» его обзоров разбились о практику. Например, в случае с данными анализа печени система считала «нормальными» показатели без учета пола, возраста и этнической принадлежности пациента. А это необходимый контекст.

В Google удалили обзоры по конкретным запросам и отметили, что работают над системными улучшениями. Но точечные удаления — это не решение проблемы, говорят эксперты. Даже при небольшом изменении формулировки в поиске вновь появляются вводящие в заблуждение ответы. Более того, алгоритмы упускают и то, что нормальные анализы не исключают наличия серьезного заболевания.

Решить эту проблему можно, считает доцент кафедры организации и управления образованием РМАНПО (Российская медицинская академия непрерывного профессионального образования Минздрава РФ), эксперт по внедрению ИИ в систему здравоохранения Евгений Машковский:

Евгений Машковский доцент кафедры организации и управления образованием РМАНПО, эксперт по внедрению ИИ в систему здравоохранения «Правильный путь — это различие и использование разных моделей генеративного искусственного интеллекта. В медицинских целях могут использоваться те модели, которые обучены работать с медицинским массивом проверенных данных. Например, зарегистрированные как медицинское устройство. В России существуют такие модели. В первую очередь это GigaChat MAX, его медицинский домен, который сейчас активно развивается, он уже сдавал в медицинском институте выпускной экзамен после шестилетнего обучения, сдавал профессиональную аккредитацию. Здесь можно так сравнить: система общего характера — это как человек, который прошел самообучение в библиотеке, прочитав всю медицинскую литературу, а специализированная система — это человек, который окончил медицинский институт. И тот и другой человек могут интерпретировать какие-то медицинские данные, анализы, результаты, давать какие-то свои предположения, заключения, и тот и другой человек могут ошибаться, но, естественно, тот человек, который окончил мединститут, с меньшей степенью ошибется, потому что он к этому более подготовлен».

В ноябре 2025 года OpenAI запретила нейросети ChatGPT давать заключения по результатам анализов и исследований, а также смотреть медицинские снимки. Чат-бот все еще может предположить, с каким заболеванием связан тот или иной запрос, и даже порекомендовать лекарства. А вот рентгеновский снимок он интерпретировать отказывается.

Если возвращаться к Google, без ответа остаются и вопросы к обзорам ИИ по темам, связанным с онкологией и психиатрией, которые эксперты назвали «совершенно неверными». В компании заявили, что обзоры содержали ссылки на авторитетные источники и призывы обратиться к специалисту, а внутренняя проверка не выявила неточностей. Но врачей это не удовлетворило, считает врач-терапевт, кардиолог, медицинский блогер Филипп Кузьменко:

Филипп Кузьменко врач-терапевт, кардиолог, медицинский блогер «Так же как и ChatGPT, он пишет, что может ошибаться, так же и человек должен понимать, что, заглядывая в интернет-сферу, о которой он не имеет ни малейшего понятия, он может получить ложную информацию. То есть это всегда кот в мешке. Ознакомиться, получить общее представление о каких-то вещах — для этого, наверное, интернет можно использовать. Но когда человек делает далекоидущие выводы исходя из той информации, которую он получил в интернете, а не от того специалиста, который ему назначил анализы, он, конечно же, очень сильно рискует. Это может реально навредить его здоровью. То, что это не нужно делать, я думаю, знают более-менее все, но все мы периодически не делаем то, что предписано делать правилами. Такие проблемы были, есть и, скорее всего, будут всегда».

Правда, почти всем уже известно, что если просто погуглить симптомы, то с вероятностью в 99% найдешь у себя тяжелое заболевание. А вот чат-ботам порой доверяют больше, чем врачам. По крайней мере, пока.