
ИИ Google DeepMind обошел GPT в медицинских тестах
Представьте: вы приходите к врачу, а у него есть помощник, который не только помнит всю историю ваших болезней, но и на равных обсуждает снимки и симптомы. Звучит как сценарий фантастического фильма, но исследователи из Google DeepMind сделали большой шаг к тому, чтобы сделать это реальностью. Они представили миру Med-Gemini — «медицинскую» версию своей знаменитой нейросети. И знаете, на тестах этот цифровой вундеркинд не просто справлялся, а в некоторых задачах обошел сам GPT-4. Давайте разберемся, что это за зверь и как он проходил свои вступительные экзамены.
По своей сути Med-Gemini — это тот же мощный мультимодальный Gemini, который умеет работать с текстом, картинками, видео и звуком, но его «прокачали» специально для медицинских задач. Команда Google взяла базовую модель и дообучила её на специфических данных. Кстати, задумайтесь на минуту: как вообще объяснить машине, что значит быть хорошим доктором? Оказывается, можно начать с того, чтобы посадить её за парту.
Система, обученная с помощью MedQA
Главным «учебником» для Med-Gemini стала огромная база вопросов MedQA. Что это такое? Представьте себе экзамен на получение медицинской лицензии в США (USMLE) — тот самый, который будущие врачи сдают в поте лица. Его вопросы перевели на три языка, переработали и скормили нейросети. Но просто заучить правильные ответы — это скучно и не по-человечески, правда? Инженеры DeepMind пошли дальше и создали для модели специальные расширенные версии этого экзамена.
Первое расширение, MedQA-R, учило ИИ не просто выбирать вариант, а выстраивать логическую цепочку рассуждений, объясняя себе (и нам) каждый шаг. Второе, MedQA-RS, разрешало модели при необходимости выходить в интернет, искать свежие данные и сверять с ними свои ответы. И результат не заставил себя ждать: на тестах Med-Gemini показал точность в 91,1%! Согласитесь, для машины, которая только «сдала экзамен», это блестящий результат.
Хорошее понимание больших наборов данных
Но умение ответить на тестовый вопрос — это лишь полдела. Настоящая медицина — это горы текста: истории болезней, протоколы, результаты анализов. Поэтому исследователи устроили Med-Gemini настоящее испытание на выносливость. Они загрузили в него около 200 анонимных медицинских карт, каждая из которых содержала от 200 до 700 тысяч слов! Представьте себе многотомник «Войны и мира», только вместо романов — запутанные истории пациентов.
Перед ИИ стояла задача, от которой у любого первокурсника-медика пошла бы кругом голова: найти в этом потоке информации крупицы важных данных — конкретные симптомы, диагнозы, оценить их связь с историей болезни. И, по словам самих разработчиков, эксперимент прошел успешно. Конечно, это не чтение мыслей, но умение быстро «просканировать» терабайты информации и выделить суть — навык, которому любой врач мог бы позавидовать.
Успешные практические испытания
Самое интересное началось, когда Med-Gemini выпустили из лаборатории в симулированную реальную жизнь. В одном тесте «пациент» пожаловался модели на зудящее образование на коже. И здесь ИИ повел себя как опытный доктор: не стал гадать с закрытыми глазами, а попросил прислать фото. Получив снимок, он задал несколько уточняющих вопросов и… правильно диагностировал редкое заболевание. И тут же выдал рекомендации, что делать дальше. Впечатляет, не правда ли?
Второй сценарий — скорее всего, любимый у врачей. Представьте: доктор смотрит на рентгеновский снимок грудной клетки, но заключения специалиста-рентгенолога еще нет. Он загружает снимок в Med-Gemini. И модель не просто описывает, что она видит на картинке. Она выдает два варианта: один — профессиональным медицинским языком для коллеги, а второй — простыми словами для пациента. Вот это я понимаю, командная работа и забота о человеке одновременно.
Сами исследователи признают: впереди еще много работы, особенно в области ведения полноценных клинических диалогов. Нужно быть на сто процентов уверенным в надежности и безопасности таких систем. Но первые шаги сделаны, и они выглядят более чем уверенно.