Durante años, los expertos han especulado sobre el papel futuro de la inteligencia artificial (IA) en el cuidado de la salud. Algunas herramientas de IA pueden superar a los médicos en tareas específicas en radiología, dermatología y otros campos, lo que generó preocupaciones de que la IA podría volver obsoletos a ciertos especialistas. Algunos temían que la IA pudiera exponer a pacientes y médicos a nuevos riesgos. Otros se preguntaron si los médicos podrían usar la IA con la conciencia tranquila si no entienden cómo funciona, o si los médicos que no la adopten podrían ser acusados de brindar una atención deficiente.
Estas preocupaciones se han desvanecido un poco ya que las plataformas de inteligencia artificial de alto perfil como IBM Watson no cumplieron su promesa. Además, al carecer de algo parecido a la inteligencia general, la IA superó a los humanos solo en tareas estrechamente definidas. Sin embargo, los temores relacionados con la IA resurgieron con el surgimiento de los modelos de aprendizaje de lenguajes (LLM), ejemplificados por el GPT de Open AI (ahora en su cuarta versión). Esta tecnología ha dejado a los médicos preguntándose cómo podrían usar los modelos de aprendizaje de lenguajes (LLM) y qué riesgos presenta la tecnología para los pacientes y los médicos.
Este punto de vista examina las aplicaciones médicas de GPT y tecnologías relacionadas y considera si se necesitan nuevas formas de regulación para minimizar los riesgos legales y de seguridad para pacientes y médicos. Estos riesgos dependen en gran medida de si el software se usa para ayudar a los profesionales de la salud o para reemplazarlos, y del grado en que los médicos mantienen el control.
¿Qué es GPT?
Un transformador preentrenado generativo (GPT) es una herramienta de IA que produce texto que se asemeja a la escritura humana, lo que permite a los usuarios interactuar con la IA casi como si se estuvieran comunicando con otra persona. El aumento repentino de la popularidad de los modelos de aprendizaje de lenguajes (LLM) se debió en gran parte a GPT-3, la tercera iteración de OpenAI, que se denominó la aplicación de más rápido crecimiento de todos los tiempos y el LLM más innovador.
Las personas usan GPT ingresando indicaciones: instrucciones de texto en forma de preguntas o comandos. La creación de indicadores de IA efectivos es tanto un arte como una ciencia, y las posibilidades parecen infinitas. Uno puede usar GPT como un motor de búsqueda. Sin embargo, los algoritmos predictivos de GPT también pueden responder preguntas que nunca se han planteado.
Si se le pide que escriba un haiku sobre el ciclo de Krebs, el software le proporcionará uno, incluso si nadie lo ha escrito antes. GPT puede explicar temas complejos como la mecánica cuántica en términos simples o proporcionar un diagnóstico diferencial para el dolor en el cuadrante superior derecho. En este sentido, su utilidad como enciclopedia científica o médica fácil de usar es obvia. Los investigadores incluso ingresaron preguntas del Examen de Licencias Médicas de EE. UU. en GPT-3 y afirmaron que el software "se acerca o supera el umbral de aprobación". Una de las características más impresionantes de GPT es cómo maneja las tareas de escritura repetitivas. En segundos, puede reducir archivos de texto grandes a resúmenes o resúmenes con viñetas. Puede crear primeros borradores de cartas, presentaciones y otros documentos.
Sin embargo, en su forma actual, GPT es propenso a errores y omisiones. Puede fallar en tareas simples, como la aritmética básica, o cometer errores de manera insidiosa que pasan desapercibidos sin el escrutinio de los expertos en la materia. Algunos usuarios observan que cuando se les pide que proporcionen referencias para sus afirmaciones, GPT a menudo las inventa. Los educadores temen que los estudiantes estén mal informados al confiar en el software. Debido al riesgo de fabricación, las editoriales académicas exigen a los autores que divulguen el uso que hacen de la tecnología. Finalmente, generalmente se sabe que los algoritmos reproducen sesgos de sus datos de entrenamiento, creando el potencial para una discriminación dañina.
Usos potenciales en la práctica clínica
Dentro de la atención médica, GPT podría desempeñar un papel en la investigación, la educación y la atención clínica. En entornos de investigación, puede ayudar a los científicos a formular preguntas, desarrollar protocolos de estudio y resumir datos. En educación médica, GPT puede servir como una enciclopedia interactiva. Podría simular las interacciones de los pacientes para ayudar a los estudiantes a perfeccionar sus habilidades de toma de antecedentes. GPT puede incluso producir primeros borradores de notas de progreso, planes de atención de pacientes y otros documentos que los estudiantes deben preparar para la clase o en las salas.
Para los médicos, GPT puede potencialmente aliviar el agotamiento al asumir tareas repetitivas. Podría brindar apoyo para la toma de decisiones clínicas e incorporarse a plataformas de registros médicos electrónicos como Epic. GPT podría aumentar o reemplazar recursos de uso frecuente como UpToDate. En teoría, los médicos podrían ingresar la información del paciente en el software y solicitar un diagnóstico diferencial o un plan de tratamiento preliminar. Sin embargo, las versiones actuales de GPT no cumplen con HIPAA y podrían poner en peligro la privacidad del paciente. Hasta que estén disponibles versiones de nivel profesional con las garantías adecuadas, los médicos deben evitar ingresar información de salud protegida.
Los pacientes pueden beneficiarse del uso de GPT como recurso médico. Sin embargo, a menos que su consejo se filtre a través de los profesionales de la salud, la información falsa o engañosa podría poner en peligro su seguridad.
Los médicos deben educar a los pacientes para que sean cautelosos al usar LLM como GPT fuera de la relación médico-paciente
Asesoramiento Jurídico
Con todos estos usos potenciales de GPT y otros modelos de aprendizaje de lenguajes (LLM), ¿cómo deben proceder los médicos? ¿GPT plantea nuevos riesgos legales o nuevos modos de regulación? La clave para comprender las cuestiones éticas y legales que rodean a las nuevas tecnologías rara vez se trata de las tecnologías en sí mismas. Lo más importante es cómo afectan las relaciones sociales entre los usuarios. Primero se deben identificar estas relaciones, los valores que las definen y los marcos legales relevantes.
Distinguimos 3 casos de uso de GPT: IA dentro de la relación médico-paciente que aumenta en lugar de reemplazar el juicio del médico, IA orientada al paciente en la prestación de atención médica que sustituye el juicio del médico y asesoramiento de salud directo al consumidor. Los médicos tienen distintas preocupaciones en cada contexto.
Considere la relación médico-paciente fuertemente regulada, definida por valores como competencia, confianza y autonomía del paciente. El marco legal en torno a esta relación está diseñado para garantizar que el asesoramiento médico se alinee con estos principios. Específicamente, las reglas relacionadas con la concesión de licencias y la disciplina, la responsabilidad por mala práctica, el consentimiento informado y los deberes fiduciarios reflejan estos valores.
Si la GPT se usa para aumentar en lugar de reemplazar el juicio profesional, es poco probable que su introducción en la práctica clínica afecte la relación médico-paciente. El uso de LLM es como la adopción anterior por parte de los médicos de teléfonos inteligentes, registros médicos electrónicos o incluso referencias de escritorio anticuadas. En consecuencia, GPT puede regularse como asesoramiento profesional de rutina.
Desde una perspectiva de responsabilidad, no es importante si los médicos entienden cómo funciona la IA y por qué hace recomendaciones. Lo que importa es si brindan atención que cumpla o supere los estándares aceptados. Los consejos inexactos generados por la IA no son diferentes de la información errónea difundida por profesionales que resulta en daño cuando ambos se filtran a través del juicio de los profesionales. En ese caso, los marcos legales existentes pueden asignar responsabilidad a los profesionales por su asesoramiento, independientemente de su fuente. Eso significa que los médicos son responsables de los resultados. En consecuencia, no deben confiar en GPT más que en otras herramientas médicas hasta que hayan sido completamente validadas. Los médicos pueden usar LLM para descargar tareas repetitivas o generar nuevas ideas. Sin embargo, deben examinar y verificar sus resultados para proteger a los pacientes y a ellos mismos.
Más preocupantes y legalmente inciertos son los usos de GPT para pacientes, donde el asesoramiento de IA se elimina de la relación profesional. Los ejemplos incluyen el uso de LLM para brindar atención básica de salud mental a los pacientes o para reemplazar al personal de la clínica que generalmente realiza el triaje. Aquí, el software puede sustituir el juicio profesional, socavando potencialmente la competencia y la confianza que definen la relación médico-paciente. Debido a la responsabilidad derivada de la falta de supervisión profesional y las preocupaciones con respecto a la precisión y la confiabilidad, GPT no debe usarse en estos roles en el futuro previsible. Sin embargo, los riesgos no han impedido que algunas empresas utilicen LLM en la primera línea y al margen de la atención médica.
Los usos de GPT orientados al consumidor son los menos regulados. En 2023, una empresa llamada Koko, que brinda servicios de chat de apoyo emocional para personas en apuros, cambió GPT-3 por sus consejeros voluntarios humanos habituales. Sin pedir permiso, Koko proporcionó mensajes generados por IA a unos 4.000 consumidores que buscaban apoyo psicológico. Cuando los usuarios se enteraron de este experimento no autorizado, muchos se sintieron traicionados. Si los desarrolladores de Koko fueran profesionales de la salud con licencia, habrían incumplido los deberes de atención y confianza que les deben a los pacientes. Sin embargo, este tipo de producto de bienestar orientado al consumidor se encuentra en un área gris legal, y las responsabilidades que se deben a los usuarios no están claras.
Cuando los consumidores le piden a la IA apoyo emocional o consejo médico, actúan fuera de la relación médico-paciente y existen pocas medidas de seguridad. Lo mismo ocurre cuando los consumidores acceden a otras fuentes de información sobre salud, como Google o Twitter. En esos casos, la ley no impone límites como los que protegen la relación médico-paciente. Estos productos orientados al consumidor no son entidades cubiertas por HIPAA y sus reglas de privacidad no se aplican. Además, no existe responsabilidad por mala praxis por malos consejos que causen daño. De hecho, los tribunales creen que la cláusula de libertad de expresión de la Primera Enmienda protege a quienes brindan asesoramiento médico erróneo fuera de las relaciones profesionales.
Los riesgos pueden ser inusualmente altos cuando los LLM están involucrados porque las personas tienden a antropomorfizarlos y, como con Koko, es posible que no sepan que se están comunicando con el software. El estilo conversacional similar al humano de GPT puede ganarse la confianza de los consumidores, haciéndolos susceptibles a la manipulación, la experimentación y la explotación comercial.
Aunque la mayoría de las leyes de atención médica no se aplican en el contexto del consumidor, la Comisión Federal de Comercio (FTC) podría enmarcar la manipulación de la IA y los consejos médicos engañosos generados por la IA como prácticas comerciales injustas o engañosas que violan la Ley de la FTC. Además, la Administración de Drogas y Alimentos de EE. UU. podría responsabilizar a los desarrolladores de software si GPT hace afirmaciones médicas falsas. Gran parte de esto es territorio legal desconocido.
Los intermediarios en línea como Google y Twitter, que principalmente difunden contenido generado por el usuario sin alteración, están protegidos contra responsabilidad por la Sección 230 de la Ley de Decencia en las Comunicaciones. Sin embargo, es poco probable que GPT, que sintetiza información para producir su propio contenido, sea inmune según los legisladores que redactaron la ley y los comentarios del juez de la Corte Suprema Neil Gorsuch durante los argumentos orales de González contra Google. Eso significa que OpenAI podría ser responsable de la información médica errónea.
Independientemente de la regulación, los médicos deben educar a los pacientes para que sean cautelosos al usar LLM como GPT fuera de la relación médico-paciente. Deben explicar que este tipo de software no está regulado en gran medida, es potencialmente engañoso y, a diferencia de los profesionales de la salud, no les debe a los pacientes el cuidado, la confianza y la confidencialidad que brindan los médicos.
Con respecto a los consejos médicos generados por IA, al igual que con otras innovaciones, sugerimos centrarse en las relaciones sociales relevantes y cómo las afecta la tecnología. Si los médicos usan LLM para ayudar en la toma de decisiones, funcionan como otros recursos o herramientas médicas. Sin embargo, el uso de IA para reemplazar el juicio humano plantea riesgos de seguridad para los pacientes y puede exponer a los médicos a responsabilidades legales. Hasta que se demuestre su precisión y confiabilidad, la GPT no debe reemplazar el juicio clínico. Aunque los médicos no son responsables de los daños causados por los LLM orientados al consumidor, deben educar a los pacientes sobre los riesgos. También podrían abogar por la regulación de la FTC que protege a los pacientes de consejos médicos falsos o engañosos generados por IA.