Заменит ли ИИ врачей?
Что AI уже умеет, а чего никогда не сможет
Один из самых громких страхов последних лет. Разбираемся спокойно: что искусственный интеллект уже сегодня делает в медицине лучше человека, чего принципиально не сможет — и почему хороший врач после ИИ становится только важнее, а не наоборот.
В 2016 году профессор Джеффри Хинтон — один из отцов современного машинного обучения — сказал на конференции в Торонто: «Прекратите готовить рентгенологов. Через пять лет глубокое обучение заменит их полностью. Это так же очевидно, как то, что снег белый». Прошло почти десять лет. Рентгенологов в США сегодня готовят больше, чем когда-либо. Их зарплаты выросли на 30%. И каждый из них использует AI как инструмент — но никто из них не заменён.
Тогда же, в 2016-м, IBM продал клиникам Watson Health за миллиарды долларов. Через шесть лет проект был списан. Мы живём в эпоху, когда обещания о замене врачей повторяются каждые два года — и каждый раз реальность оказывается сложнее, чем казалось.
Эта статья — спокойный разбор: что AI действительно умеет, чего принципиально не сможет, и почему хороший врач после ИИ становится не дешевле, а дороже. Без алармизма, но и без обнадёживающих обещаний. С фактами, исследованиями и конкретными цифрами.
Если коротко — что отвечает наука
ИИ не заменит врачей. Но изменит их роль — и парадокс в том, что хорошие врачи от этого подорожают, а не наоборот.
Это позиция, которую разделяют большинство исследователей. NEJM AI (журнал New England Journal of Medicine, посвящённый ИИ в медицине) опубликовал в 2024 году обзор более 200 исследований. Главный вывод: AI становится встроенным инструментом, как стетоскоп или УЗИ, но не самостоятельным субъектом медицинской помощи.
Почему так? Потому что медицина — это не только распознавание паттернов в данных. Это работа с конкретным человеком в конкретной жизненной ситуации. С его страхами, противоречивыми симптомами, личными обстоятельствами и решениями, которые невозможно свести к алгоритму. AI хорошо справляется с задачами, где есть структурированные данные и чёткий критерий правильного ответа. И принципиально слаб там, где нужно действовать в условиях неопределённости с человеком напротив.
Дальше — детально по каждому пункту.
Откуда взялся миф «ИИ заменит врачей»
Идея о том, что искусственный интеллект «вот-вот» заменит врачей, возникала уже минимум три раза за последние 15 лет. Каждый раз — с большим шумом. Каждый раз — с предсказуемым разочарованием.
Волна первая: 2011–2016. IBM Watson
В 2011 году IBM Watson выиграл в телевикторине Jeopardy! и стал звездой. Через год компания объявила, что Watson «учится на онкологии» в Memorial Sloan Kettering. К 2014-му пресс-релизы обещали персонализированную терапию рака для каждого пациента. К 2018-му внутренние документы IBM, опубликованные журналом Stat News, показали, что Watson рекомендовал небезопасные схемы лечения — иногда противопоказанные при конкретных диагнозах. В 2022 году IBM продала Watson Health фонду за сумму, оцениваемую в треть от вложенного.
Волна вторая: 2016–2020. Hinton и радиологи
Заявление Хинтона про рентгенологов запустило цикл публикаций о «конце профессии». Появились стартапы Aidoc, Zebra Medical, Lunit. Они действительно показали впечатляющие результаты на отдельных задачах — например, поиск переломов или ранних признаков рака. Но за пять лет ни один из них не заменил рентгенолога. Все эти инструменты используются в дополнение к врачу. Сегодня они стандарт в крупных клиниках США, но рентгенолог остаётся человеком, который принимает финальное решение.
Волна третья: 2022–2024. GPT-4 и ChatGPT
Большие языковые модели сдали экзамен USMLE (медицинский экзамен в США) — это вызвало новую волну заголовков. GPT-4 показал точность 90% на USMLE Step 1. Но дальше начались проблемы: на реальных клинических случаях точность падала до 50-70%, а главное — модель уверенно ошибалась, что в медицине опаснее, чем неуверенный ответ.
Общая закономерность: каждая волна показывает, что AI хорош в определённых задачах, но не как замена врача. И каждый раз шум превышает результат.
Где AI уже сегодня сильнее человека
Это самая интересная часть. Алармистские прогнозы оказались неверными — но недооценка тоже была. AI действительно превосходит врача в определённых задачах. Не во всех, не везде, не всегда. Но в отдельных конкретных областях — реально превосходит. Вот шесть направлений, где это уже подтверждено крупными исследованиями.
| Область | Что AI делает | Результат |
|---|---|---|
| Маммография | Поиск ранних признаков рака груди | Google Health, 2020 — снижение пропусков на 9,4% (Nature) |
| Ретинопатия | Скрининг диабетической ретинопатии по снимку глазного дна | IDx-DR одобрен FDA в 2018 — первый AI с правом ставить скрининговое заключение |
| Меланома | Различение меланомы и доброкачественных пигментных образований | ISIC 2017 — AI обошёл 58 дерматологов в точности |
| ЭКГ | Раннее выявление фибрилляции предсердий и кардиомиопатии | Stanford 2019 — точность 99,6% против 76,9% у кардиолога |
| Патология | Анализ гистологических препаратов на рак простаты | PathAI 2021 — снижение ошибок диагноза на 70% при работе AI + патолог |
| КТ лёгких | Поиск ранних узлов и снижение пропусков ранней онкологии | Nature 2019 — AI Google показал точность 94,4% vs 89,1% у врача-рентгенолога |
Что общего у всех этих задач? Это распознавание паттернов в визуальных или временных данных с чётким правильным ответом. AI обучается на миллионах примеров, не устаёт, не отвлекается на 30-го пациента, не пропускает редкие признаки из-за того, что не видел их год.
Важно: во всех этих случаях AI работает не вместо врача, а с врачом. Финальное решение принимает человек. AI делает первичный отбор, помечает подозрительные зоны, сравнивает с прошлыми снимками. Врач — интерпретирует находки в контексте пациента и принимает решение о тактике.
И ещё одно: эти задачи занимают часть работы врача, не всю. Рентгенолог не только смотрит снимки — он консультирует, обсуждает с хирургами, отвечает на вопросы. AI помогает в одной части. Заменить всё — не может.
Чего ИИ принципиально не может
Это не «пока не научился» и не «через 5 лет научится». Это вещи, которые AI не может делать по своей природе — потому что для этого нужен человек, тело, контекст, ответственность. Перечисляю те, что чаще всего недооценивают.
Физический осмотр
Пальпация живота, аускультация лёгких, осмотр кожи на ощупь, проверка рефлексов. У AI нет рук. Он работает с тем, что вы ему передали — снимками, цифрами, описаниями. До 40% диагностической информации врач получает от физикального осмотра.
Анамнез как искусство
Пациент говорит «болит живот», но за этим могут быть гастрит, инфаркт, паническая атака, депрессия с соматизацией. Хороший врач задаёт правильные уточняющие вопросы, считывает невербалику, чувствует когда пациент что-то скрывает. AI работает с тем, что написано в чате.
Кто перед тобой и как живёт
Один и тот же бланк анализов с одинаковыми отклонениями может требовать разной тактики у программиста-айтишника, многодетной матери, профессионального спортсмена и пожилого человека с ограниченной мобильностью. AI считает отклонения. Врач — учитывает жизнь.
Лечение начинается с разговора
Пациент с впервые поставленным онкодиагнозом нуждается не в файле с протоколом, а в живом человеке, способном сказать страшную правду так, чтобы пациент мог жить дальше. И это эмпатия — не алгоритм, а человеческое присутствие.
Юридическая и моральная
Если AI ошибся в диагнозе и пациент пострадал — кто отвечает? Производитель алгоритма? Клиника? Программист? В реальном мире на 2026 год ответственность всегда несёт врач, использовавший AI. И это не изменится в обозримом будущем — у общества нет инструмента возложить ответственность на алгоритм.
Когда правильного ответа нет
«Я не знаю, делать ли биопсию или подождать три месяца — у вас атипичные симптомы и сложный анамнез». Это решение врач принимает на основе клинического опыта, интуиции и обсуждения с пациентом. AI хорош там, где есть правильный ответ. Медицина часто работает там, где его нет.
Ключевая разница. AI учится на размеченных данных: «вот этот снимок — рак, вот этот — нет». Реальная медицина работает с пациентами, которые не помечены. «У меня иногда болит голова и я плохо сплю» — за этим могут быть депрессия, мигрень, недосып, обезвоживание, скрытая инфекция или начало серьёзной болезни. Разобраться — это и есть работа врача.
Громкие провалы AI в медицине
Чтобы понять, где AI принципиально слаб, полезно посмотреть на крупные неудачи. Не для злорадства — а для понимания, какие ошибки повторяются. И эти ошибки — фундаментальные, не «доработаем через год».
Что произошло
IBM позиционировал Watson как «революцию в онкологии». В Memorial Sloan Kettering обучали систему на реальных случаях. К 2018-му внутренние документы показали, что Watson рекомендовал назначения, не соответствующие клинической картине — например, кроворазжижающие препараты пациентам с активным кровотечением.
Почему провалилось
Watson обучался не на реальной популяции, а на «идеальных» гипотетических случаях, которые врачи MSK создавали для обучения. В реальной практике пациенты сложнее — у них сопутствующие заболевания, нестандартные показатели, противоречивые симптомы. Watson хорошо работал в лабораторной среде и плохо — в клинике.
Урок
AI может быть прекрасен в синтетических данных и небезопасен в реальной практике. Разрыв между бенчмарками и клиникой — главный риск медицинского AI.
Что произошло
Британский стартап Babylon Health внедрил AI-чат-бот для первичной диагностики через NHS. Идея: пациент описывает симптомы боту, бот говорит, к какому врачу идти и нужно ли срочно. К 2020-му регулятор CQC выявил, что бот систематически недооценивал тяжёлые состояния — например, относил признаки сердечного приступа к «обычному стрессу».
Почему провалилось
Тренировочные данные плохо отражали реальное разнообразие симптомов. Bias по полу (женщинам чаще ставили «тревожность» при кардиологических симптомах) и возрасту. Невозможность учесть контекст, которого нет в чате.
Урок
AI-триаж работает в простых случаях и опасно ошибается в сложных. А медицина — это во многом и есть сложные случаи.
Что произошло
Исследование, опубликованное в JAMA в 2024 году, показало: при запросах с медицинскими ссылками в 39% случаев ChatGPT придумывал несуществующие исследования — с фальшивыми авторами, журналами и годами. Эти выдуманные источники выглядели правдоподобно. Пациенты, не имеющие медицинского образования, не могли отличить их от настоящих.
Почему происходит
Большие языковые модели работают по принципу «предсказать следующее слово на основе вероятности». Они не знают, что такое «правда» — они знают, что такое «правдоподобный текст».
Урок
Уверенность тона ≠ правильность ответа. И в медицине эта разница может быть фатальной. Поэтому AI-сервисы должны открыто работать с источниками, цитировать их и ограничивать «свободные» рассуждения.
Что роднит все три кейса. AI выглядел убедительно, давал ответы с уверенностью, проходил тесты на бенчмарках — и проваливался в реальной клинической практике, где пациенты сложнее «учебных», контекст важнее данных, а ошибка стоит жизни. Это не недоработка. Это структурное ограничение технологии.
HelpScaner — не «AI вместо врача». Мы делаем расшифровку анализов и готовим вас к разговору с врачом. На Экспертном тарифе — даже отдельный раздел «Для лечащего врача» с клинической сводкой.
Что меняется в роли врача после AI
Если AI не заменяет врача — что он делает? Меняет работу. И это не маркетинговое клише, а фундаментальный сдвиг, который виден уже сегодня в западной медицине.
От «исполнителя инструкций» к навигатору
Раньше много времени врача уходило на работу, которую можно описать как «исполнение протокола»: посмотреть бланк, сверить с нормами, посчитать индексы, расшифровать ЭКГ, описать снимок. AI справляется с большей частью этого. Освобождает время.
Куда оно уходит? На разговор с пациентом, принятие сложных решений, координацию специалистов, объяснение и поддержку. Это и есть то, что AI делать не умеет — но это и есть то, что определяет качество медицинской помощи.
Больше времени на сложные кейсы
Когда AI снимает с врача рутину, у врача появляется ресурс на нестандартные случаи. На пациентов с противоречивыми симптомами. На редкие болезни. На сложные коммуникации. На медицину как искусство — там, где она действительно искусство, а не алгоритм.
Появление новой компетенции — работа с AI
Современный врач должен уметь читать AI-заключения критически. Понимать ограничения модели. Знать, когда доверять ассистенту, когда — перепроверять. Это новый навык, которому учат на лучших медицинских факультетах с 2023 года.
Почему хороший врач от AI только дорожает
Это, возможно, самая контринтуитивная часть статьи. Большинство людей думает: чем больше задач берёт на себя AI, тем меньше нужны врачи — и тем дешевле они должны стоить. На деле происходит ровно наоборот.
Что такое эффект Баумоля
Это экономический закон, описанный в 1960-х годах. Звучит так: в отраслях, где автоматизация повышает производительность, цены падают. В отраслях, где автоматизировать нельзя — цены растут. Классический пример: квартет Гайдна сегодня требует ровно тех же четырёх музыкантов и тех же 30 минут, что 200 лет назад. Производительность та же. А зарплаты музыкантов выросли в десятки раз — потому что они конкурируют за людей с другими отраслями, где производительность растёт.
Как это работает в медицине
Чем больше задач берёт на себя AI — тем выше ценится то, что AI делать не может. А это: человеческое присутствие, эмпатия, контекстное понимание, ответственность, доверительный разговор. Эти вещи нельзя автоматизировать — но они становятся всё более редкими и востребованными.
В США это уже видно. Появилось новое направление — concierge medicine. Это врачи, которые берут не более 100–200 пациентов в год, дают каждому свой телефон, ведут долгие разговоры и работают как личный консультант по здоровью. Стоимость — $5000–$20000 в год. Очередь на приём — месяцы. И спрос только растёт.
Что это значит для России
В России процесс пока медленнее, но направление то же. Бутиковые врачи в Москве — кардиологи, эндокринологи, ревматологи с глубоким клиническим мышлением — берут 5000–10000 ₽ за приём. Десять лет назад те же специалисты брали 2000–3000 ₽. И запись к ним — на месяц вперёд. AI здесь не конкурент — он усилитель спроса на человеческое.
Чем активнее ИИ берёт на себя рутинные задачи в медицине, тем выше ценится врач, который умеет посмотреть в глаза и спросить: «Как вы спите? Как у вас с близкими?». Эта работа не автоматизируется — и поэтому дорожает.
Что это значит для пациента
Если ИИ не заменяет врача, но меняет медицину — что делать вам как пациенту? Несколько практических выводов.
Используйте AI как ассистента, не как врача
AI хорошо помогает: понять анализы перед приёмом, сформулировать вопросы к врачу, разобраться с терминами в выписке, сравнить динамику показателей за разные даты, оценить срочность ситуации (но не диагностировать). Не используйте AI для постановки диагноза, назначения лечения и решений «идти к врачу или подождать пройдёт».
Готовьтесь к приёму через AI
Один из лучших способов извлечь пользу из медицинского AI — использовать его для подготовки. Расшифровка анализов с разбором того, что обсудить с врачом, какие вопросы задать, какие индексы посчитать. На 15-минутном приёме вы заходите с уже сформулированными вопросами, а не теряете время на «расскажите, что вас беспокоит».
Не экономьте на хорошем враче
Парадокс эффекта Баумоля: если будущее принадлежит врачам, которых нельзя автоматизировать — экономить на них становится дороже, чем платить. Бесплатная медицина даст вам AI-помощь и рутинные приёмы. Глубокий разбор сложного случая с разговором — это уже платная история. И она будет дорожать.
Учитесь читать критически
В мире, где любой может задать ChatGPT медицинский вопрос и получить уверенный ответ, главная защита — критическое мышление. AI может ошибаться, и часто ошибается. Всегда проверяйте советы с источниками. И в важных вопросах — с живым врачом.
Частые вопросы про AI и медицину
Нет. Юридически — невозможно: по российскому законодательству диагноз и лечение может назначать только врач с лицензией. Технически — AI хорош в отдельных задачах (анализ снимков, расшифровка ЭКГ), но не в комплексной диагностике с физикальным осмотром.
Что изменится: AI станет встроенным инструментом в работе врача. Часть рутинных задач перейдёт к алгоритмам. Больше времени врач сможет уделять разговору, осмотру, сложным случаям.
На 2026 год — ни один AI-сервис в мире не имеет юридического права самостоятельно ставить диагноз. Единственное исключение — IDx-DR в США, который имеет право выдать заключение «есть/нет диабетической ретинопатии» как скрининговый тест. Всё остальное — это поддержка решения, окончательный диагноз ставит врач.
HelpScaner и другие AI-сервисы расшифровки анализов работают именно как поддержка — они не диагностируют, а помогают понять цифры и подготовиться к врачу.
Скорее всего, никого полностью. Но больше всего автоматизации коснётся: бюрократических задач (заполнение карт, выписок, направлений), первичной сортировки пациентов (триаж), расшифровки стандартных исследований (ЭКГ, простые снимки).
Профессии медсестры и врача останутся — но изменятся обязанности. Меньше бумажной работы, больше работы с пациентом.
Зависит от сервиса и от того, что вы от него ждёте. Безопасно: получить разбор показателей, понять что значит каждая цифра, подготовиться к разговору с врачом. Небезопасно: ставить диагноз, отказываться от обращения к врачу, лечить себя по рекомендациям AI.
HelpScaner работает по второму принципу. Мы открыто говорим: не заменяем врача — готовим к нему. У нас даже отдельный раздел в Экспертном тарифе так и называется — «Для лечащего врача».
Это эффект Баумоля — экономический закон. В отраслях, где автоматизация повышает производительность, цены растут на то, что автоматизировать нельзя. AI берёт на себя рутину врача. На рутине производительность растёт. А то, что не автоматизируется — человеческое присутствие, эмпатия, контекст, ответственность — становится дефицитным и дорожает.
В США уже видно: hourly rate concierge-врачей вырос на 40% за пять лет. В России процесс медленнее, но тренд тот же.
США: FDA одобрила более 700 AI-инструментов как медицинские устройства (на конец 2024 года). Большинство — для распознавания изображений (рентген, КТ, МРТ, патология). Все они работают в дополнение к врачу, а не вместо.
ЕС: схожая ситуация, регулируется через CE-маркировку и MDR. В России Росздравнадзор зарегистрировал около 20 AI-систем медицинского назначения на 2025 год — все как ассистенты врачу.
При расхождении приоритет — у врача, видящего пациента. AI работает только с цифрами. Врач видит вас живьём, знает анамнез, физикальные находки, контекст. Если интерпретации расходятся — это повод обсудить, что врач учитывает дополнительно. Хороший врач объяснит. Если же врач отмахивается без объяснения — есть смысл получить второе мнение.
AI-расшифровка не должна противопоставляться врачебной — она должна готовить вас к более качественному разговору.
Прогнозы на 20 лет в медицине — это спекуляция, никто не знает точно. Но направление видно: AI станет встроенным во все этапы медицинской помощи, появятся новые специальности (например, врач-куратор AI-систем), вырастет роль превентивной медицины, а человеческие врачи останутся — но изменятся их задачи.
Главное: профессия врача никуда не уйдёт. Изменится — да. Исчезнет — нет. Это видно по истории всех «революций»: от стетоскопа до МРТ. Каждая технология меняла работу, но не убирала врача.