Почему нельзя использовать большие языковые модели в диагностике и лечении

Почему нельзя использовать LLM для диагностики и лечения

Разбор рисков, галлюцинаций, отсутствия объяснимости и регуляторных барьеров

⚠️ LLM — это не медицинский прибор

Большие языковые модели (ChatGPT, Qwen, Mistral, Gemini и др.) демонстрируют впечатляющие способности, но они принципиально не предназначены для диагностики или назначения лечения. Использование LLM в этих целях может привести к тяжёлым последствиям для пациентов. Рассмотрим ключевые риски.

❗ Ключевая мысль: LLM не проходят клинические испытания, не имеют разрешения регуляторов и не могут нести ответственность за ошибки.

🧠 Галлюцинации: модель «уверенно врёт»

LLM генерируют текст на основе вероятностных закономерностей, а не фактической истины. Они могут уверенно выдумывать диагнозы, лекарства, дозировки, ссылки на несуществующие статьи. Это не «ошибка», а особенность архитектуры. Даже при низкой температуре выборки галлюцинации не исчезают полностью.

Пример: LLM может посоветовать пациенту с почечной недостаточностью дозу лекарства, которая смертельна для него, потому что в обучающих данных не было достаточного контекста.

Исследования показывают, что даже лучшие современные модели дают ложную информацию в 5–20% ответов на медицинские запросы. Для клинической практики это недопустимо.

🔍 «Чёрный ящик»: почему модель решила именно так?

В отличие от линейной регрессии или дерева решений, LLM не предоставляют объяснения своих выводов. Вы не можете увидеть, на каких признаках основан диагноз. Это делает невозможным проверку и критическую оценку.

Врач должен понимать, почему он назначает то или иное лечение. Если решение принимает «чёрный ящик», невозможно:

  • Проверить, не использовал ли LLM нерелевантные или вредные признаки.
  • Обнаружить скрытые предубеждения (например, возраст, расу, пол).
  • Апеллировать к логике в спорных случаях.

Регуляторы (FDA, EMA) требуют объяснимости (explainability) для медицинских устройств на основе ИИ. LLM этой объяснимости не предоставляют.

⚖️ Ни одна LLM не зарегистрирована как медицинское изделие

Для того чтобы использовать программное обеспечение для диагностики или лечения, оно должно пройти клинические испытания и получить регистрационное удостоверение (в России — Росздравнадзор, в США — FDA, в Европе — CE mark). Ни одна LLM общего назначения не имеет такого разрешения.

  • Модель не тестировалась на репрезентативных выборках пациентов.
  • Не оценивались чувствительность, специфичность, прогностическая ценность.
  • Не проводился анализ рисков (ISO 14971).
  • Отсутствует постмаркетинговый мониторинг.

Использование незарегистрированного ПО в медицине незаконно и влечёт уголовную ответственность при наступлении вреда.

🏛️ Кто ответит за ошибку?

Если врач ошибся, ответственность лежит на нём и его медицинской организации. Если ошибку совершила LLM — кто ответит? Разработчик модели в лицензионном соглашении снимает с себя всякую ответственность (модель предоставляется «как есть»). Врач, последовавший совету LLM, рискует потерять лицензию и быть привлечённым к уголовной ответственности.

Нет ни правовой, ни страховой системы, которая покрывала бы ущерб от решений, принятых на основе LLM.

🔒 Данные пациентов не должны покидать клинику

Большинство LLM работают через облачные API (OpenAI, Anthropic, Google). Отправка истории болезни, результатов анализов, изображений на сторонние серверы нарушает законодательство о защите персональных данных (152‑ФЗ, HIPAA, GDPR). Даже если модель запускается локально (например, Qwen, Mistral), нет гарантии, что она не сохраняет логи или не передаёт данные. Если она не отключена от Интернета программно или физически, конечно. В любом случае, никогда не передавайте в LLM персональные данные пациентов - только агрегированные и обезличенные в соответствии с действующим законодательством - во избежание потенциальных рисков

Локальные LLM также требуют значительных вычислительных ресурсов, а их обучение проводилось на интернет‑данных, которые могут содержать конфликтующую или вредную информацию.

👤 LLM не знает вашего пациента

Диагноз и лечение зависят от множества индивидуальных факторов: возраст, вес, сопутствующие заболевания, принимаемые лекарства, аллергии, генетические особенности, социальные условия. LLM, даже если вы передадите ей часть этой информации, не способна интегрировать её с медицинской логикой, не имеет доступа к полной истории болезни и не может осмотреть пациента.

Любой хороший врач знает, что даже детальный опрос не заменяет физикального обследования и лабораторных тестов. LLM не обладает этими возможностями.

📌 Резюме: границы применения LLM в медицине

  • ❌ Нельзя: ставить диагноз, назначать лечение, рекомендовать дозировки, интерпретировать анализы без контроля врача.
  • ⚠️ С осторожностью: поиск информации (всегда перепроверяйте по надёжным источникам), написание черновиков статей, генерация структурированных данных из текста (при условии проверки).
  • ✅ Можно (и полезно): помощь в написании документации, суммирование длинных текстов, обучение и самообразование, создание шаблонов отчётов.
Вывод: LLM — это помощник для исследователя, а не замена врачу. Никогда не принимайте клинических решений на основе LLM без консультации с квалифицированным медицинским специалистом.
⚠️ Статья носит информационный характер и не является юридической или медицинской консультацией. Всегда следуйте официальным клиническим рекомендациям и законодательству.

Хотите безопасно использовать ИИ в исследованиях?

«АвИ Орбита» предоставляет локальные, интерпретируемые модели машинного обучения. Для диагностики и лечения мы не даём советов — только статистический анализ и инструменты для исследователей. Локальные модели машинного обучения только облегчат заполнение отчётов - остальное вы сделаете лучше машины.

Узнать больше