В последние годы искусственный интеллект (ИИ) все активнее проникает в различные области медицины, изменяя методы диагностики, лечения и взаимодействия с пациентами. Однако недавние исследования поднимают важные и, возможно, тревожные вопросы о том, насколько уместно использование ИИ в ситуациях, связанных с принятием жизненно важных решений, таких как прекращение или продолжение поддерживающей терапии для критически больных пациентов.
Так, в Журнале Американской медицинской ассоциации (JAMA) было опубликовано исследование, чьи авторы предложили идею создания чат-ботов, которые могли бы представлять интересы пациентов, находящихся в бессознательном состоянии. Предполагается, что ИИ, анализируя поведенческие данные пациента — такие как его активность в социальных сетях, посещение религиозных мероприятий, благотворительные пожертвования и принятые решения по вопросам здоровья раньше, — сможет предсказать, какие решения этот человек принял бы в текущей, сложившейся для него критической ситуации. Чат-бот мог бы озвучивать подобные прогнозы и, таким образом, помогая врачам и семьям принимать сложные медицинские решения (таких как эвтаназия).
Тем не менее, многие специалисты в области медицины выражают серьезные опасения по поводу таких предложений. Нейрохирурги, которые регулярно сталкиваются с необходимостью обсуждать с семьями пациентов вопросы конца жизни, считают, что подобные технологии могут нанести больше вреда, чем пользы. “Мы никогда бы не доверили компьютеру решать, что делать в таких ситуациях”, — заявляют врачи, настаивая на том, что решения, связанные с поддержанием или прекращением жизни, должны оставаться исключительно в руках людей — врачей, самих пациентов и их близких.
Основной аргумент против использования ИИ в таких ситуациях связан с концепцией медицинской автономии. Этот фундаментальный принцип медицинской этики предполагает, что пациент имеет право самостоятельно принимать решения, которые касаются его здоровья. Даже если человек находится в состоянии, не позволяющем выразить свою волю, решение принимается его представителем — человеком, которому доверено это право на основании личных, а не алгоритмических оценок. Медики отмечают, что каждая ситуация уникальна, и в тех случаях, когда речь идет о выборе между жизнью и смертью, важно применять человеческий подход. Он позволяет учитывать все детали, которые невозможно охватить с помощью алгоритмов и автоматических систем, основанных на сборе данных.
Кроме того, существует опасение, что алгоритмы ИИ могут опираться на некорректные или недостаточные данные. Принцип “мусор на входе — мусор на выходе”, известный в компьютерных науках, особенно актуален в медицине. Хотели бы вы, чтобы решения о жизнеобеспечении принимались на основании поста в социальной сети, написанного много лет назад? Даже если исходные данные будут безупречными, врачи подчеркивают: мы — гораздо больше, чем просто сумма наших прошлых действий или записей. Сводить личность к таким фрагментам “контента” неправильно, и жизненно важные решения должны основываться на глубоком понимании ситуации, а не на расчетах машины.
Не менее важной проблемой является вопрос безопасности использования подобных технологий. Медицинские системы уже неоднократно становились объектами кибератак, и если алгоритмы, принимающие решения за пациентов, окажутся на тех же уязвимых серверах, это может привести к катастрофическим последствиям. Врачи также выражают опасения относительно того, кто будет контролировать и обслуживать такие алгоритмы. Например, если разработка и поддержка ИИ будет поручена страховым компаниям или крупным медицинским корпорациям, не возникнет ли соблазн настроить алгоритмы таким образом, чтобы они “подталкивали” пациентов и врачей к более дешевым решениям?
Присоединяйтесь к нашему телеграм-каналуФинансовые интересы могут стать ключевым фактором, что вызовет серьезные этические проблемы в здравоохранении. Например, алгоритм, который склоняет к отключению пациента от систем жизнеобеспечения, может быть выгоден для страховых компаний или государственных программ, таких как Medicare (в США), тогда как другой алгоритм, наоборот, может поддерживать дорогостоящие методы лечения, принося прибыль больницам. Такие сомнения подрывают доверие к медицинским решениям, которые принимались бы с участием ИИ, особенно в ситуациях, связанных с жизнью и смертью.
Кроме того, врачи подчеркивают, что использование ИИ в принятии решений может усугубить недоверие к медицинской системе среди уязвимых групп населения. Люди с ограниченными возможностями, представители разных культур и языковых групп, а также те, кто уже испытывает недоверие к медицинским учреждениям, вряд ли примут факт того, что их будущее будет определяться алгоритмом. Для таких пациентов доверие к врачу, основанное на человеческом взаимодействии, имеет ключевое значение.
Несмотря на очевидные риски, врачи признают, что искусственный интеллект имеет огромный потенциал в других сферах медицины. Например, ИИ может значительно сократить рутинные задачи, связанные с документацией, что позволит врачам больше времени уделять пациентам. Сегодня многие врачи вынуждены тратить значительное количество времени на заполнение форм, ведение документации и выполнение других технических задач, что снижает качество общения с пациентами. Именно здесь ИИ мог бы сыграть свою положительную роль, освобождая время для более сложных и ответственных решений для врачей.
Тем не менее, врачи настоятельно предупреждают: ИИ не должен вмешиваться в решения, касающиеся конца жизни. Эти моменты требуют участия людей, а не бездушных алгоритмов. Как отметил один из нейрохирургов: “Ответ не в компьютерах, а в нас самих”. В критических ситуациях, когда речь идет о жизни и смерти, человеческое участие, сочувствие и способность принимать решения на основе личного опыта и знания пациента должны оставаться главенствующими. Искусственный интеллект может быть полезным инструментом в рутинных задачах, но он никогда не должен заменять человека там, где на кону стоят человеческие жизни.