Benefícios, riscos e medidas legais

Aconselhamento médico gerado por inteligência artificial: o caso do chat GPT

As tecnologias geram novos medos na medicina

Autor/a: Claudia E. Haupt, Mason Marks,

Fuente: AI-Generated Medical AdviceGPT and Beyond

Durante anos, os especialistas especularam sobre o futuro papel da inteligência artificial (IA) na área da saúde. Alguns médicos tinham receito que ferramentas superassem especialistas como dermatologistas ou radiologistas, levando a preocupação de que a tecnologia pudesse as tornar obsoletas. Alguns temiam que a IA pudesse expor pacientes e médicos a novos riscos. Outros se perguntaram se os médicos poderiam usar a IA, ou se os médicos que não a adotassem poderiam ser acusados ​​de fornecer cuidados abaixo do padrão.

Essas preocupações desapareceram um pouco, pois plataformas de IA de alto perfil, como o IBM Watson, falharam em cumprir sua promessa. Além disso, sem nada parecido com inteligência geral, a IA superou os humanos apenas em tarefas estritamente definidas. No entanto, os medos relacionados à IA ressurgiram com o surgimento dos modelos de aprendizado de idiomas (LLMs), exemplificados pelo chat GPT da Open AI (agora em sua quarta versão). Essa tecnologia deixou os médicos se perguntando como eles poderiam usar esses modelos e quais riscos essa tecnologia representaria tanto para pacientes quanto para os médicos.

Por isso, Haupt e Marks (2023) realizaram uma revisão para avaliar as aplicações médicas de GPT e tecnologias relacionadas e consideraram se existe a necessidade de uma nova regulamentação para minimizar os riscos legais e de segurança para pacientes e médicos. Esses riscos dependem em grande parte se o software é usado para auxiliar ou substituir os profissionais de saúde e o grau em que os médicos mantêm o controle.

> O que é GPT?

Um transformador pré-treinado generativo (GPT) é uma ferramenta de IA que produz texto que se assemelha à caligrafia humana, permitindo que os usuários interajam com a IA quase como se estivessem se comunicando com outra pessoa. O súbito aumento na popularidade dos modelos de aprendizado de idiomas (LLMs) deveu-se em grande parte ao GPT-3, a terceira iteração do OpenAI, que foi considerado o aplicativo de crescimento mais rápido de todos os tempos e o LLM mais inovador.

As pessoas usam o GPT inserindo prompts: instruções de texto na forma de perguntas ou comandos. Criar indicadores de IA eficazes é tanto uma arte quanto uma ciência, e as possibilidades parecem infinitas. Pode-se usar o GPT como um mecanismo de pesquisa. No entanto, os algoritmos preditivos do GPT também podem responder a perguntas que nunca foram feitas.

Se você solicitar a ferramenta a escrever um haicai sobre o ciclo de Krebs, o software fornecerá um para você, mesmo que ninguém o tenha escrito antes. O GPT pode explicar tópicos complexos como a mecânica quântica em termos simples ou fornecer um diagnóstico diferencial para dor no quadrante superior direito. Nesse sentido, é óbvia a sua utilidade como enciclopédia científica ou médica de fácil utilização. Os pesquisadores até inseriram perguntas do Exame de Licenciamento Médico dos EUA no GPT-3 e afirmaram que o software "se aproxima ou excede o limite de aprovação". Um dos recursos mais impressionantes do GPT é como ele lida com tarefas de digitação repetitivas. Em segundos, você pode reduzir arquivos de texto grandes a resumos. Você pode criar cartas, apresentações e outros documentos.

No entanto, em sua forma atual, o GPT está sujeito a erros e omissões. A ferramenta pode falhar em tarefas simples, como aritmética básica, ou cometer erros insidiosos que passam despercebidos sem o escrutínio de especialistas no assunto. Alguns usuários observam que, quando solicitados a fornecer referências para suas reivindicações, a ferramenta geralmente as inventa. Os educadores temem que os alunos estejam sendo mal informados ao confiar no software. Atualmente, os editores acadêmicos exigem que os autores divulguem o uso que fazem da tecnologia. Finalmente, os algoritmos são geralmente conhecidos por reproduzir vieses de seus dados de treinamento, criando o potencial para discriminação prejudicial.

> Uso potencial na prática clínica

Na área da saúde, o GPT pode desempenhar um papel na pesquisa, educação e cuidados clínicos. Em ambientes de pesquisa, pode ajudar os cientistas a fazer perguntas, desenvolver protocolos de estudo e resumir dados. Na educação médica, pode servir como uma enciclopédia interativa. É possível simular as interações do paciente para ajudar os alunos a aprimorar suas habilidades de obtenção do histórico. O GPT pode até mesmo produzir rascunhos de notas de progresso, planos de atendimento ao paciente e outros documentos que os alunos precisam preparar para a aula.

Para os médicos, o GPT pode potencialmente aliviar o esgotamento devido a tarefas repetitivas. Ele poderia fornecer suporte à decisão clínica e ser incorporado a plataformas de registros médicos eletrônicos. O GPT pode aumentar ou substituir recursos usados ​​com frequência, como o UpToDate. Em teoria, os médicos poderiam inserir as informações do paciente no software e solicitar um diagnóstico diferencial ou um plano de tratamento preliminar. No entanto, as versões atuais do GPT não são compatíveis com HIPAA e podem comprometer a privacidade do paciente. Até que versões de nível profissional com proteções adequadas estejam disponíveis, os médicos devem evitar inserir informações de saúde protegidas.

Os pacientes podem se beneficiar do uso do GPT como um recurso médico. No entanto, a menos que seu conselho seja feito e/ou revisado por profissionais de saúde, informações falsas ou enganosas podem comprometer sua segurança.

Os médicos devem educar os pacientes para serem cautelosos ao usar LLM como GPT.

> Assessoramento jurídico

Com todos esses usos potenciais para GPT e outros LLMs, como os médicos devem proceder? A GPT apresenta novos riscos jurídicos ou novos modos de regulamentação? A chave para entender as questões éticas e legais que envolvem as novas tecnologias raramente está nas próprias tecnologias. O mais importante é como elas afetam as relações sociais entre os usuários.

Haupt e Marks (2023) distinguiram 3 casos de uso de GPT: IA na relação médico-paciente que aumenta em vez de substituir o julgamento do médico, IA orientada para o paciente na prestação de cuidados de saúde que substitui o julgamento do médico e aconselhamento de saúde direto ao consumidor. Os médicos têm preocupações diferentes em cada ambiente.

Considere a relação médico-paciente rigidamente regulamentada, definida por valores como competência, confiança e autonomia do paciente. A estrutura legal em torno dessa relação é projetada para garantir que o aconselhamento médico esteja alinhado com esses princípios. Especificamente, as regras relacionadas a licenciamento e disciplina, responsabilidade por imperícia, consentimento informado e deveres fiduciários refletem esses valores.

Se a GPT for usada para aumentar em vez de substituir o julgamento profissional, é improvável que sua introdução na prática clínica afete a relação médico-paciente. Sendo assim, o LLM seria introduzido na prática médica como os smartphones e os registros médicos foram adotados. Assim, o GPT pode ser regulamentado como aconselhamento profissional de rotina.

Do ponto de vista da responsabilidade, não é importante se os médicos entendem como a IA funciona e por que ela faz recomendações. O que importa é se eles fornecem cuidados que atendem ou excedem os padrões aceitos. Os conselhos imprecisos gerados pela IA não diferem da desinformação espalhada pelos profissionais que resulta em danos quando ambos são filtrados pelo julgamento dos profissionais. Nesse caso, as estruturas legais existentes podem atribuir responsabilidade aos profissionais por seus conselhos, independentemente de sua fonte. Isso significa que os médicos são responsáveis ​​pelos resultados. Consequentemente, eles não devem confiar mais no GPT do que em outras ferramentas médicas até que tenham sido totalmente validados. Os médicos podem usar o LLM para descarregar tarefas repetitivas ou gerar novas ideias. No entanto, eles devem examinar e verificar seus resultados para proteger a si mesmos e aos pacientes.

Mais preocupantes e legalmente incertos são os usos do GPT para pacientes, onde o conselho de IA elimina a relação profissional. Os exemplos incluem o uso de LLMs para fornecer cuidados básicos de saúde mental aos pacientes ou para substituir a equipe clínica que normalmente realiza a triagem. Aqui, o software pode substituir o julgamento profissional, minando potencialmente a competência e a confiança que definem a relação médico-paciente. Devido à responsabilidade decorrente da falta de supervisão profissional e preocupações com relação à precisão e confiabilidade, o GPT não deve ser usado nessas funções no futuro previsível. No entanto, os riscos não impediram algumas empresas de usar LLMs na linha de frente e nos bastidores da assistência médica.

Os usos de GPT voltados para o consumidor são os menos regulamentados. Em 2023, uma empresa chamada Koko, que fornece serviços de bate-papo de apoio emocional para pessoas em perigo, trocou os seus conselheiros voluntários humanos regulares pelo chat GPT-3. Sem pedir permissão, Koko forneceu mensagens geradas por IA para cerca de 4.000 consumidores que buscavam apoio psicológico. Quando os usuários descobriram esse experimento não autorizado, muitos se sentiram traídos. Se os desenvolvedores de Koko fossem profissionais de saúde licenciados, eles teriam violado os deveres de cuidado e confiança que devem aos pacientes. No entanto, esse tipo de produto de bem-estar voltado para o consumidor está em uma área legal cinzenta e as responsabilidades devidas aos usuários não são claras.

Quando os consumidores pedem apoio emocional ou aconselhamento médico à IA, eles estão agindo fora da relação médico-paciente e poucas salvaguardas estão em vigor. O mesmo ocorre quando os consumidores acessam outras fontes de informação sobre saúde, como Google ou Twitter. Nesses casos, a lei não impõe limites como os que protegem a relação médico-paciente. Esses produtos voltados para o consumidor não são entidades cobertas pela HIPAA e suas regras de privacidade não se aplicam. Além disso, não há responsabilidade por imperícia por maus conselhos que causem danos. Na verdade, os tribunais acreditam que a cláusula de liberdade de expressão da Primeira Emenda protege aqueles que dão conselhos médicos errôneos fora das relações profissionais.

Os riscos podem ser extraordinariamente altos quando LLMs estão envolvidos porque as pessoas tendem a antropomorfizá-los e, como no caso de Koko, eles podem nem saber que estão se comunicando com o software. O estilo de conversa humanoide do GPT pode conquistar a confiança dos consumidores, tornando-os suscetíveis à manipulação, experimentação e exploração comercial.

Embora a maioria das leis de assistência médica não se aplique ao contexto do consumidor, a Comissão Federal de Comércio (FTC) pode enquadrar a manipulação de IA e os conselhos médicos enganosos gerados por IA como práticas comerciais desleais ou enganosas que violam a Lei da FTC. Além disso, a Food and Drug Administration dos EUA pode responsabilizar os desenvolvedores de software se a GPT fizer alegações médicas falsas. Muito disso é território legal desconhecido.

Os intermediários online, como Google e Twitter, que disseminam principalmente conteúdo inalterado gerado pelo usuário, são protegidos de responsabilidade pela Seção 230 da Lei de Decência nas Comunicações. No entanto, é improvável que o GPT, que sintetiza informações para produzir seu próprio conteúdo, esteja imune, de acordo com os legisladores que redigiram a lei e os comentários do juiz da Suprema Corte Neil Gorsuch durante os argumentos orais de Gonzalez contra o Google. Isso significa que a OpenAI pode ser responsável pela desinformação médica.

Independentemente da regulamentação, os médicos devem educar os pacientes para serem cautelosos ao usar o LLM como GPT fora da relação médico-paciente. Eles devem explicar que esse tipo de software não é regulamentado, é potencialmente enganoso e, ao contrário dos profissionais de saúde, não deve aos pacientes o cuidado, a confiança e a confidencialidade fornecidos pelos médicos.

No que diz respeito ao aconselhamento médico gerado por IA, assim como em outras inovações, os autores sugeriram focar nas relações sociais relevantes e em como a tecnologia as afeta. Se os médicos usam LLMs para auxiliar na tomada de decisões, eles funcionam como outros recursos ou ferramentas médicas. No entanto, o uso da IA ​​para substituir o julgamento humano representa riscos de segurança para os pacientes e pode expor os médicos a responsabilidades legais. Até que sua precisão e confiabilidade sejam comprovadas, a GPT não deve substituir o julgamento clínico. Embora os médicos não sejam responsáveis ​​por nenhum dano causado pelos LLMs voltados para o consumidor, eles devem educar os pacientes sobre os riscos. Eles também podem defender a regulamentação da FTC que protege os pacientes de conselhos médicos falsos ou enganosos gerados por IA.