UNIVERSIDAD DE CARNEGIE MELLON
Resumen La inteligencia artificial (IA) en el cuidado de la salud tiene el potencial de mejorar los resultados de los pacientes, pero la aceptación de los médicos sigue siendo una barrera crítica. Desarrollamos una nueva interfaz de soporte de decisiones que proporciona recomendaciones de tratamiento interpretables para la sepsis, una afección potencialmente mortal en la que la incertidumbre en la toma de decisiones es común, las prácticas de tratamiento varían ampliamente y los resultados deficientes pueden ocurrir incluso con decisiones óptimas. Este sistema formó la base de un estudio de métodos mixtos en el que 24 médicos de cuidados intensivos tomaron decisiones asistidas por IA en casos de pacientes reales. Descubrimos que, en general, las explicaciones aumentaban la confianza en la IA, pero la concordancia con las recomendaciones específicas iba más allá de la aceptación o el rechazo binarios descritos en trabajos anteriores. Aunque los médicos a veces ignoraron o confiaron en la IA, también priorizaron aspectos de las recomendaciones a seguir, rechazar o retrasar en un proceso que llamamos "negociación". Estos resultados revelan nuevas barreras para la adopción de herramientas de IA centradas en el tratamiento y sugieren formas de apoyar mejor las diferentes perspectivas de los médicos. |
Comentarios
Los médicos de una unidad de cuidados intensivos deben tomar decisiones complejas de manera rápida y precisa, monitoreando a los pacientes en estado crítico o inestables durante todo el día.
Investigadores del Instituto de Interacción Humano-Computadora (HCII) de la Universidad Carnegie Mellon colaboraron con médicos e investigadores de la Universidad de Pittsburgh y UPMC para determinar si la inteligencia artificial podría ayudar en este proceso de toma de decisiones y si los médicos confiarían en tal asistencia.
El equipo le dio a 24 médicos de la UCI acceso a una herramienta basada en IA diseñada para ayudar a tomar decisiones y descubrió que la mayoría incorporó la asistencia en algunas de sus decisiones.
"Parece que los médicos están entusiasmados con el potencial de la IA para ayudarlos, pero es posible que no estén familiarizados con el funcionamiento de estas herramientas de IA. Por lo tanto, es realmente interesante acercarles estos sistemas", dijo Venkatesh Sivaraman, Ph.D. estudiante del HCII y miembro del equipo de investigación.
Usando el modelo clínico de IA presentado en Nature por un grupo de investigadores en 2018, el equipo diseñó una interfaz interactiva de soporte de decisiones clínicas (CDS), llamada AI Clinician Explorer, que brinda recomendaciones para tratar la sepsis. El modelo se entrenó en un conjunto de datos de más de 18.000 pacientes que cumplieron con los criterios estándar de diagnóstico de sepsis en algún momento durante su estadía en la UCI. El sistema permite a los expertos clínicos filtrar y buscar pacientes en el conjunto de datos, visualizar sus trayectorias de enfermedad y comparar las predicciones del modelo con las decisiones de tratamiento reales que se toman al lado de la cama del paciente.
"Los médicos siempre ingresan una gran cantidad de datos sobre los pacientes que atienden en estos sistemas informáticos y registros de salud electrónicos", dijo Sivaraman. "La idea es que tal vez podamos aprender de algunos de esos datos para intentar acelerar algunos de sus procesos, hacerles la vida un poco más fácil y quizás también mejorar la consistencia de la atención".
El equipo puso a prueba su sistema a través de un estudio de pensamiento en voz alta con 24 médicos que practican en la UCI y tienen experiencia en el tratamiento de la sepsis. Durante el estudio, los participantes utilizaron una interfaz simplificada de AI Clinician Explorer para evaluar y tomar decisiones de tratamiento para cuatro casos de pacientes simulados.
"Pensamos que los médicos dejarían que la IA tomara la decisión por completo o la ignorarían por completo y tomarían su propia decisión", dijo Sivaraman.
Pero los resultados no fueron tan binarios. El equipo identificó cuatro comportamientos comunes entre los médicos: ignorar, confiar, considerar y negociar. El grupo "ignorar" no permitió que la IA influyera en su decisión y, en su mayoría, tomó sus decisiones incluso antes de ver la recomendación. Por el contrario, el grupo "confiar" aceptó consistentemente al menos parte de la información de la IA en cada decisión. En el grupo "considerar", los médicos pensaron en la recomendación de IA en cada caso y luego la aceptaron o la rechazaron. La mayoría de los participantes, sin embargo, cayeron en el grupo de "negociación", que incluye profesionales que aceptaron aspectos individuales de las recomendaciones en al menos una de sus decisiones, pero no en todas.
El equipo se sorprendió con estos resultados, que también proporcionaron información sobre formas de mejorar AI Clinician Explorer. Los médicos expresaron su preocupación de que la IA no tuviera acceso a datos más holísticos, como la apariencia general del paciente, y se mostraron escépticos cuando la IA hizo recomendaciones contrarias a lo que les habían enseñado.
"Cuando el CDS se desvía de lo que los médicos normalmente harían o considerarían como la mejor práctica, no había una buena idea de por qué", dijo Sivaraman. "Entonces, en este momento, nos estamos enfocando en determinar cómo proporcionar esos datos y validar estas recomendaciones, lo cual es un problema desafiante que requerirá aprendizaje automático e IA".
La investigación del equipo no intenta reemplazar o replicar la toma de decisiones de los médicos, sino que espera usar la IA para revelar patrones que pueden haber pasado desapercibidos en los resultados anteriores de los pacientes.
"Hay muchas enfermedades, como la sepsis, que podrían presentarse de manera muy diferente para cada paciente, y el mejor curso de acción podría ser diferente dependiendo de eso", dijo Sivaraman. "Es imposible que cualquier ser humano acumule todo ese conocimiento para saber cómo hacer las cosas mejor en cada situación. Entonces, tal vez la IA pueda empujarlos en una dirección que no habían considerado o ayudarlos a validar lo que consideran el mejor curso de acción".
Sivaraman presentó el artículo del equipo "Ignore, Trust or Negotiate: Understanding Clinician Acceptance of AI-Based Treatment Recommendations in Health Care" este mes en la Conferencia de la Asociación de Maquinaria de Computación sobre Factores Humanos en Sistemas de Computación ( CHI 2023 ) en Hamburgo, Alemania.