ChatGPT помогает врачам, но может навредить пациентам
Чат-бот соблазняет врачей своей способностью излагать медицинскую информацию, но исследователи предостерегают от того, чтобы доверять искусственному интеллекту принятие сложных этических решений.
Новая эра медицины: роль ChatGPT в практике врачей
Роберт Перл, профессор Стэнфордской медицинской школы, ранее был генеральным директором американской медицинской группы Kaiser Permanente с более чем 12 млн пациентов. Если бы он и сейчас занимал этот пост, то настоял бы на том, чтобы все 24 тыс. врачей этой компании начали использовать ChatGPT в своей практике уже сейчас.
"Я думаю, что он станет для врачей более важным, чем стетоскоп в прошлом", - говорит Перл. "Ни один врач, занимающийся высококачественной медициной, не сможет обойтись без использования ChatGPT или других форм генеративного ИИ".
Перл больше не занимается медициной, но говорит, что знает врачей, использующих ChatGPT для подведения итогов лечения пациентов, написания писем и даже - в случае затруднений - для поиска идей по диагностике пациентов. Он полагает, что врачи найдут сотни тысяч полезных применений бота для улучшения здоровья людей.
ChatGPT и трансформация медицины: роль языковых моделей
В то время как такие технологии, как ChatGPT от OpenAI, бросают вызов превосходству поиска Google и вызывают разговоры о трансформации отрасли, языковые модели начинают демонстрировать способность выполнять задачи, которые раньше были уделом белых воротничков, таких как программисты, юристы и врачи. Это вызвало дискуссии среди врачей о том, как эти технологии могут помочь им в обслуживании пациентов. Медики надеются, что языковые модели смогут находить информацию в цифровых медицинских записях или предоставлять пациентам резюме длинных технических заметок, но также опасаются, что они могут обмануть врачей или дать неточные ответы, которые приведут к неправильному диагнозу или плану лечения.
Компании, разрабатывающие технологии искусственного интеллекта, сделали экзамены в медицинских вузах эталоном в соревновании по созданию более способных систем. В прошлом году Microsoft Research представила языковую модель BioGPT, получившую высокие оценки при решении ряда медицинских задач, а в работе OpenAI, Massachusetts General Hospital и AnsibleHealth утверждалось, что ChatGPT может соответствовать или превышать 60-процентный проходной балл на экзамене на получение медицинской лицензии в США.
Несколько недель спустя исследователи Google и DeepMind представили Med-PaLM, который достиг 67-процентной точности при прохождении того же теста, они также написали, что, хотя их результаты и обнадеживают, они "по-прежнему уступают результатам клиницистов".
Компания Microsoft и один из крупнейших в мире поставщиков программного обеспечения для здравоохранения Epic Systems объявили о планах использования GPT-4 от OpenAI, лежащего в основе ChatGPT, для поиска тенденций в электронных медицинских записях.
Хизер Мэтти, преподаватель общественного здравоохранения в Гарвардском университете, изучающая влияние искусственного интеллекта на здравоохранение, была впечатлена, когда впервые воспользовалась ChatGPT.
Она попросила рассказать о том, как моделирование социальных связей использовалось для изучения ВИЧ - темы, которую она исследует. В конце концов, модель затронула темы, выходящие за рамки ее знаний, и она уже не могла понять, соответствует ли она действительности.
Процесс принятия решений ChatGPT: кто определяет подходящий ответ из медицинских статей
Ей стало интересно, как ChatGPT согласовывает два совершенно разных или противоположных вывода из медицинских статей, и кто определяет, является ли ответ подходящим или вредным.
Сейчас Мэтти считает себя менее пессимистичной, чем после того раннего опыта. По ее словам, бот может быть полезным инструментом для решения таких задач, как резюмирование текста, но при условии, что пользователь знает, что он не может быть на 100% корректен и может выдавать необъективные результаты.
Особенно ее беспокоит то, как ChatGPT относится к инструментам диагностики сердечно-сосудистых заболеваний и оценки травм при интенсивной терапии, которые имеют опыт расовой и гендерной предвзятости.
ChatGPT в клинической среде: ограничения и недостатки в достоверности информации
Однако она по-прежнему с осторожностью относится к ChatGPT в клинических условиях, поскольку иногда он фабрикует факты и не уточняет, откуда взята информация.
"Медицинские знания и практика меняются и развиваются с течением времени, и невозможно сказать, откуда ChatGPT черпает информацию о типичных методах лечения", - говорит она. "Является ли эта информация свежей или устаревшей?"
Пользователям также следует остерегаться того, что боты в стиле ChatGPT могут представлять сфабрикованную или "галлюцинированную" информацию в поверхностном виде, что может привести к серьезным ошибкам, если человек не проверит ответы алгоритма на факты. Кроме того, генерируемый ИИ текст может оказывать тонкое влияние на человека.
Этические вопросы и ChatGPT: непоследовательный моральный советчик
В опубликованном в январе исследовании, не прошедшем экспертную оценку, в котором ChatGPT задавал этические вопросы, был сделан вывод, что чатбот является непоследовательным моральным советчиком, который может влиять на принятие решений человеком, даже если люди знают, что совет исходит от программы искусственного интеллекта.
Быть врачом - это гораздо больше, чем просто излагать энциклопедические медицинские знания. Хотя многие врачи с энтузиазмом относятся к использованию ChatGPT для решения задач, не требующих особого риска, таких как резюмирование текста, некоторые специалисты по биоэтике опасаются, что врачи будут обращаться к боту за советом, когда им придется принимать сложное этическое решение, например, о том, является ли операция правильным выбором для пациента с низкой вероятностью выживания или выздоровления."Вы не можете передать этот процесс на аутсорсинг или автоматизировать его с помощью генеративной модели ИИ", - говорит Джейми Вебб, специалист по биоэтике из Центра техноморального будущего при Эдинбургском университете.
В прошлом году Вебб и группа психологов-моралистов изучали, что потребуется для создания "морального советника" на базе ИИ для использования в медицине, вдохновившись предыдущими исследованиями, в которых предлагалась такая идея. Вебб и его соавторы пришли к выводу, что таким системам будет сложно надежно сбалансировать различные этические принципы и что врачи и другие сотрудники могут пострадать от "моральной дезадаптации", если они станут слишком полагаться на бота, вместо того чтобы самостоятельно обдумывать сложные решения.
Вебб отмечает, что врачам и раньше говорили, что ИИ, обрабатывающий язык, произведет революцию в их работе, но их ждало разочарование. После побед в игре Jeopardy! в 2010 и 2011 годах подразделение Watson компании IBM обратилось к онкологии и сделало заявления об эффективности борьбы с раком с помощью ИИ. Однако это решение, первоначально получившее название "Memorial Sloan Kettering in a box", оказалось не столь успешным в клинических условиях, как можно было предположить, и в 2020 году IBM закрыла проект.
Когда шумиха не оправдывается, это может иметь долгосрочные последствия. В феврале на дискуссии в Гарварде, посвященной возможностям применения ИИ в медицине, врач первичной медицинской помощи Тришан Панч вспомнил, как вскоре после выхода чатбота в свет его коллега опубликовал в Twitter сообщение, в котором поделился результатами диагностики заболевания с помощью ChatGPT.
Воодушевленные врачи быстро ответили обещаниями использовать эту технологию в своей практике, вспоминает Панч, но примерно к 20-му ответу в Твиттере появился еще один врач, который заявил, что все рекомендации, выдаваемые моделью, являются фальшивыми.
"Достаточно одного-двух подобных случаев, чтобы подорвать доверие ко всему этому", - сказал Панч, который является соучредителем компании Wellframe, занимающейся разработкой программного обеспечения для здравоохранения.
ChatGPT и здравоохранение: функции, дополняющие врачей и помогающие пациентам
Несмотря на ошибки, которые иногда допускает искусственный интеллект, Роберт Перл (Robert Pearl), бывший сотрудник компании Kaiser Permanente, по-прежнему очень положительно относится к языковым моделям, подобным ChatGPT. Он считает, что в ближайшие годы языковые модели в здравоохранении станут похожими на iPhone, оснащенные функциями и возможностями, которые смогут дополнять врачей и помогать пациентам справляться с хроническими заболеваниями.
Он даже полагает, что такие языковые модели, как ChatGPT, могут помочь сократить число смертей в результате врачебных ошибок. При этом Перл считает, что некоторые вещи для ИИ недоступны.
Он считает, что помощь людям в преодолении горя и потерь, беседы с родственниками о конце жизни и обсуждение процедур, связанных с высоким риском осложнений, не должны осуществляться с помощью бота, поскольку потребности каждого пациента настолько разнообразны, что для достижения цели необходимо проводить такие беседы.
"Это общение между людьми", - говорит Перл, прогнозируя, что то, что доступно сегодня, - лишь малая доля потенциала. "Если я и ошибаюсь, то только потому, что переоцениваю темпы совершенствования технологии. Но каждый раз, когда я смотрю, она развивается быстрее, чем я думал".
Пока что он сравнивает ChatGPT со студентом-медиком: он способен оказывать помощь пациентам и участвовать в работе, но все, что он делает, должно быть проверено лечащим врачом.
Вы когда-нибудь сталкивались с трудностями при получении доступа к ChatGPT? Возможно, вам было необходимо пройти сложную процедуру регистрации или получить специальные разрешения, чтобы использовать эту технологию. Это может вызывать разочарование и приводить к потере времени и энергии.
Но не отчаивайтесь! У нас есть решение для вас. Наш Телеграм бот, основанный на технологии ChatGPT, поможет вам преодолеть все эти трудности. Теперь у вас будет легкий доступ к мощной технологии и понимание того, какие запросы отправлять, чтобы получить нужную информацию или решить свои задачи.
По материалам https://www.wired.com