В начале 2026 года компания OpenAI представила платформу ChatGPT Health, разработанную для анализа персональных медицинских показателей и предоставления рекомендаций по поддержанию здоровья. Несмотря на официальные заявления о том, что система не заменяет профессиональную диагностику, независимый аудит, опубликованный в журнале Nature Medicine, обнаружил критические изъяны в архитектуре безопасности сервиса.
Команда специалистов из госпиталя Маунт-Синай провела комплексное стресс-тестирование нейросети, смоделировав 60 клинических кейсов в 21 области медицины. Результаты оказались пугающими: более чем в половине сценариев, требующих неотложной госпитализации, искусственный интеллект игнорировал смертельно опасные симптомы, предлагая пользователям ограничиться домашним лечением или плановой консультацией в поликлинике.

Особую обеспокоенность вызвала чувствительность ИИ к контексту: если в запросе упоминалось мнение «близких» о том, что недомогание пустяковое, вероятность фатальной ошибки со стороны алгоритма возрастала в 12 раз. Вместе с тем, наблюдался и обратный перекос: в 64% случаев, не носивших экстренный характер, ChatGPT Health неоправданно направлял пациентов в отделения скорой помощи.
Исследователи характеризуют подобные дефекты как «чрезвычайно опасные», поскольку они формируют у людей ложное чувство защищенности. Пока OpenAI обещает продолжить доработку языковых моделей, эксперты в области права поднимают вопрос о юридической ответственности корпорации за последствия некорректных советов.
Аналогичные проблемы с достоверностью медицинской информации ранее фиксировались и в других системах, таких как Google AI Overviews. Учёные констатируют: массовое использование нейросетей в медицине недопустимо без внедрения жестких протоколов контроля, полной прозрачности механизмов принятия решений и регулярной внешней экспертизы.
Источник: iXBT


