Искусственный интеллект (ИИ) уже произвел революцию во многих отраслях и показал, что может если не заменить, то очень помочь дизайнерам, например, при создании логотипа, копирайтерам – при написании текстов. Он также может выполнять любую работу, если его научить (например, на заводе BMW нейросеть проверяет качество покраски кузовов и исправляет огрехи).
Также ИИ может оказать влияние на здравоохранение: специалисты Калифорнийского университета в Сан-Диего обнаружили, что чат-боты, такие как ChatGPT, все чаще используются врачами. По словам медиков, опрошенных в ходе исследования, ChatGPT часто отвечает более подробно и проявляет… больше участия, чем профессионалы.
Исследование доктора ChatGPT
Исследователи сравнили диагнозы медицинских работников с диагнозами ChatGPT. Около 80% врачей, привлеченных к исследованию, отметили, что ответы чат-бота лучше. По мнению медработников, ChatGPT дает более четкие и точные ответы, чем люди.
Вопросы пациентов брались с форума Reddit в категории r/AskDocs (Спроси доктора). Вопросы по здоровью там размещают миллионы пользователей, и на них отвечают живые врачи, статус которых подтвержден соцсетью. Именно с их ответами и сравнивались диагнозы ChatGPT.
Онлайн-врачи
Идея такой дистанционной постановки диагноза не нова. У Google, например, есть собственный доктор, который давно помогает лечить людям боль в горле, головные боли или другие заболевания, основываясь на описываемых ему симптомах. По сути, это медицинский поисковик.
ChatGPT пошел дальше: если вы зададите ему правильный вопрос, чат-бот даст вам, насколько это возможно, подробное объяснение симптомов. Перебирая варианты в своих ответах, у него больше шансов поставить более точный диагноз, чем у врача-человека (как и в случае игры в шахматы – нейросеть перебирает больше возможных вариантов, чем человек). В случае же неспецифических симптомов ChatGPT предлагает на выбор несколько потенциальных диагнозов.
Многие считают, что ChatGPT особенно эффективен в вопросах, касающихся психического здоровья, поскольку чат-бот общается с «пациентом», как чуткий человек, что особенно ценно в работе психотерапевта.
Диагноз хорош, но есть одно «но»
Исследователи подчеркнули, что искусственный интеллект ни в коем случае не должен заменять медицинских работников. Наоборот: модели ИИ могут быть интегрированы в систему здравоохранения и помогать врачам в их работе.
«Возможности улучшить здравоохранение с помощью ИИ огромны, – говорит руководитель исследования Джон У. Айерс.
По его мнению, лечение с поддержкой ИИ – это будущее медицинской отрасли.
Мария Лиаката, профессор обработки естественного языка (НЛП) Лондонского университета королевы Марии:
«Предположение, что ИИ может помочь врачам сформулировать диагнозы, чтобы повысить их точность и помочь улучшить коммуникативные навыки, является обоснованным и потенциально может принести пользу пациентам и снизить нагрузку на врачей».
И есть критика ChatGPT как врача
Мартин Томас, профессор информационных технологий Колледжа Грешам в Лондоне, директор и главный консультант Martyn Thomas Associates Limited:
«Исходя из примеров ответов, приведенных в статье, врачи давали краткие советы, в то время как ответы ChatGPT были аналогичны тем, которые вы могли бы найти в поисковой системе. ChatGPT, как известно, порой продуцирует убедительные ответы, которые не соответствуют действительности. Если пациенты просто хотят сочувствия и общего описания своего состояния, то ChatGPT дает именно это».
Нелло Кристианини, профессор в области искусственного интеллекта, Университет Бата:
«Вопросы были заданы онлайн-пациентами, на них ответили проверенные врачи-люди, а затем ChatGPT – без какой-либо другой информации о пациенте. Ответы вслепую сравнила группа людей, которые оценивали их по степени точности и уровню сочувствия, обнаружив, что ответы машины предпочтительнее ответов людей. В статье предполагается, что эта технология может привести к появлению ИИ-помощников, которые могут "улучшить реакцию, снизить выгорание врачей и улучшить результаты лечения пациентов".
Но если бы отношения между пациентом и врачом ограничивались только разговорами (без осмотров и анализов), тогда СhatGPT мог бы работать так же хорошо, или даже лучше, чем врачи».
Доктор Мхайри Эйткен, научный сотрудник по этике в Институте Алана Тьюринга:
«Важно отметить некоторые существенные недостатки этого исследования. Запросы пациентов и ответы клиницистов поступают с онлайн-форума, а не из реальных медицинских учреждений. Это сильно отличается от советов или ответов, которые могут давать врачи в реальных медицинских учреждениях. Вполне вероятно, что сравнение ответов ChatGPT с ответами врачей в реальных медицинских учреждениях приведет к другим результатам. Это сравнение необходимо, прежде чем делать какие-либо выводы о ценности ChatGPT для оказания медицинской помощи».
Энтони Кон, профессор в области автоматического мышления, Университет Лидса:
«Учитывая хорошо известную способность ChatGPT "писать в стиле", неудивительно, что чат-бот может выдать участливый текст. Чат-боты с языковой моделью LLM, как правило, дают довольно подробные ответы, поэтому неудивительно, что они длиннее, чем ответы врачей, которым обычно не хватает времени. Авторы осторожно отмечают, что чат-бот следует использовать только в качестве инструмента для составления ответа на запрос пациента, но учитывая склонность LLM к выдумыванию «фактов», было бы опасно полагаться на любую информацию от него. Важно, чтобы любые ответы тщательно проверялись медицинским работником».
Джеймс Давенпорт, профессор факультета информационных технологий в Хевроне и Медлоке, Университет Бата:
«Можно подумать, что чуткий ответ более качественный. В случае примера "проглотил зубочистку" ответ врача "скорее всего, она попала в ваш кишечник" более точен, чем ответ ChatGPT "если вы не испытываете никаких симптомов, можно с уверенностью предположить, что зубочистка прошла через вашу пищеварительную систему". Но оценивавшие ответы врачи предпочли версию ChatGPT».
Вывод
ChatGPT кажется внимательным и охочим до объяснений специалистом. Но нельзя забывать, что по своей натуре он может выдумать факты. Кроме того, он не осматривает пациента, не использует стетоскоп, не делает пальпации и так далее. Поэтому для проверки диагноза необходим настоящий врач. Врачу же будет, наверняка, интересно, какие варианты диагноза нашел в сети чат-бот, чтобы рассмотреть их все и определить правильный.
Читайте также:
«Крестный отец нейросетей» уволился из Google