Você leria um autor artificial?

Inteligência artificial e Chatgpt

Vantagens e desafios das novas tecnologias

Autor/a: Eduardo Luis De Vito

Fuente: Medicina (B Aires) 2023; 83:329-332

Indice
1. Texto principal
2. Referencias bibliográficas

A inteligência artificial (IA) está cada vez mais presente em várias áreas do nosso quotidiano. Recentemente, a Revista Medicina tratou do assunto1,2. Um de seus maiores expoentes da ferramenta é o ChatGPT3, que merece muito espaço publicitário e pode incomodar o Google e surpreender seus usuários com respostas para questões existenciais como “Qual o sentido da vida?”, e muito mais4.

Não é possível ignorar o impacto da estratégia promocional desta ferramenta, e que não poucos artigos de jornais de grande circulação que tratam de IA a ilustram com imagens de robôs. Essa antropomorfização da inteligência artificial ​​está erroneamente ligada à ideia de que a IA tem o potencial de atuar como um agente no mundo real. Mas vamos ficar tranquilos, o fim do mundo ainda está muito longe.

O que é o ChatGPT?

O ChatGPT (Generative Pre-trained Transformer 3), reconhecido mundialmente como GPT3, é um modelo de aprendizagem utilizado para gerar textos semelhantes aos escritos por humanos.5 Logo após seu lançamento, em novembro de 2022, o ChatGPT se tornou uma sensação cultural. É uma tecnologia conversacional de acesso livre (até certo nível) através de um portal web criado pela empresa OpenAI, fundada em 2015 nos EUA por Sam Altman, da qual participou Elon Musk. A Microsoft adquiririu 49% das ações da ChatGPT pelo que não é de estranhar que a empresa incorpore um novo ícone às já conhecidas ferramentas de escritório.

É um programa que cria um texto automaticamente com base nas indicações digitadas. Ele é pré-treinado para que possa entender e gerar texto sobre uma ampla gama de tópicos com alta precisão e naturalidade semelhante à escrita humana, em cerca de 100 idiomas. Além de ser usado como um portal de jogos, há implicações perturbadoras para a academia e a ciência.

O que o ChatGPT pode fazer?

Desde o seu lançamento, surpreendeu milhões de usuários com a recitação de poemas, histórias, ensaios e conselhos pessoais. Ele é capaz de criar uma partitura e até mesmo um ensaio acadêmico comparando duas teorias5. O programa também pode produzir resumos científicos que podem ter qualidade humana e podem enganar os revisores. A ferramenta já está listada como coautora em alguns artigos6. Desde o seu lançamento, ficou claro que esse tipo de tecnologia de IA será capaz de influenciar a forma como universidades e pesquisadores trabalham. Estas são algumas das razões deste Editorial.

Defensores e críticos do ChatGPT.

O ChatGPT recebeu críticas positivas e negativas5. Este último veio do campo da educação e da ciência: por exemplo, na Universidade de Strasbourg, na França, descobriram que 20 alunos fizeram um exame a distância usando o ChatGPT como assistente e terão que fazer o exame pessoalmente7. O Departamento de Educação da cidade de Nova York restringiu o acesso ao ChatGPT da Internet e de dispositivos em suas escolas públicas; da mesma forma, a Sciences Po University em Paris proibiu seus alunos de usá-lo, especialmente sem reconhecer que é usado essa tecnologia e oito universidades australianas reconheceram que seu uso pelos alunos poderia ser considerado como trapaça8.

No campo da ciência, as posições no ChatGPT são mais divididas. Alguns editores proibiram ou restringiram seu uso na preparação de submissões, enquanto outros consideram sua adoção inevitável. A editora-chefe da revista americana Science atualizou sua política editorial proibindo o uso de textos do ChatGPT e esclarecendo que o programa não poderia aparecer como autor6.

A Springer-Nature, publicada entre outras pela Scientific American e Nature, não a proibiu completamente, mas esta ferramenta e outras semelhantes podem, por enquanto, ser usadas na preparação de artigos, desde que todos os detalhes sejam divulgados no manuscrito. A Elsevier, que tem Cell e The Lancet em seu portfólio, adotou uma postura semelhante.

O editor-chefe da Nature em Londres, por outro lado, acredita que, com as medidas de segurança corretas, o ChatGPT e ferramentas semelhantes podem ser benéficas para a ciência, principalmente ao nivelar o campo de jogo para falantes não nativos de inglês que poderiam utilizar esses programas para tornar o idioma em seus trabalhos mais fluente.

Outra maneira de ver o ChatGPT é considerá-lo apenas mais uma ferramenta no conjunto cada vez maior de ferramentas disponíveis para escrever um artigo. Pode-se, por exemplo, implementá-lo como um mecanismo de busca que responda diretamente às perguntas, em vez de apenas consultar as fontes nas quais o próprio indivíduo deve procurar as respostas9.

​O ChatGPT, coautor de artigos científicos.

As principais revistas científicas exigem que os autores assinem um formulário declarando que são responsáveis ​​por sua contribuição ao trabalho. O ChatGPT não pode fazer isso9, mas é um dos 12 autores de um pre-print sobre o uso da ferramenta para educação médica, publicado no repositório médico medRxiv10.

Uma das diretrizes editoriais é que um coautor deve fazer uma "contribuição acadêmica significativa" para o artigo, o que pode ser possível com ferramentas como o ChatGPT. Mas também deve ter a capacidade de concordar em ser co-autor e assumir a responsabilidade por um estudo, ou pelo menos a parte para a qual você contribuiu. “É realmente aquela segunda parte em que a ideia de coautoria de uma ferramenta de IA realmente atinge um obstáculo”10.

É possível detectar um texto científico no qual o chatGPT interveio?

Além de definir se é permitido ou não, parece razoável especificar o uso de algo que já está sendo utilizado e que sua maior difusão parece inevitável. Neste ponto pode-se apelar, pelo menos por enquanto, que os autores sejam honestos e descrevam como foi usado, e que se responsabilizem por seus resultados.

Os resumos gerados pelo ChatGPT foram testados por meio de verificadores de plágio: a pontuação mediana de originalidade foi de 100%, indicando que eles não detectaram nenhum plágio11. Esses programas, ao identificarem repetições, oferecem um serviço de paráfrase, a fim de ocultar a cópia.

O professor de ciência da computação de Princeton, Arvind Narayanan, diz que as soluções para esses problemas não devem se concentrar no chatbot em si, “mas nos incentivos perversos que levam a esse comportamento, como universidades fazendo avaliações de recrutamento e promoção contando empregos sem levar em conta à sua qualidade ou impacto”. Narayanan chamou o ChatGPT de gerador de merda. Em sua opinião, esse tipo de IA é treinado para produzir um texto plausível. Ele é muito bom em ser persuasivo, mas não é capaz de produzir afirmações verdadeiras. Frequentemente, produz afirmações verdadeiras como efeito colateral de ser plausível e persuasivo, mas esse não é o ponto. É um discurso que tenta persuadir sem levar em conta a verdade. Em outras palavras, o software funciona simplesmente fazendo previsões sobre o que dizer, em vez de sintetizar ideias como o cérebro humano12.

Alinhado a essa ideia está o que foi expresso por Van Dis et al. na Nature13. Os autores testaram sua interação com o ChatGPT em tópicos científicos específicos. Isso não rendeu pequenas imprecisões13. Parece que os mesmos vieses que muitas vezes enganam os humanos, como os vieses de disponibilidade, seleção e confirmação, são reproduzidos e muitas vezes até amplificados.

Entendemos que em áreas onde informações falsas podem colocar em risco a segurança das pessoas, como a medicina, os periódicos precisarão adotar uma abordagem mais rigorosa para verificar se as informações são precisas.

Você leria um artigo escrito pelo CHATgpr?

A resposta deste editorialista é sim. Sim, mas sabendo que o ChatGPT teria contribuído para a sua concretização. O trabalho científico é um dos empreendimentos mais gratificantes. A IA tem consequências de longo alcance para a ciência e a sociedade, e o desenvolvimento do modo de conversação provavelmente mudará as práticas de ensino, pesquisa e publicação, criando oportunidades e preocupações.

Em nossa opinião, o uso dessa tecnologia é inevitável, portanto bani-la não funcionará. O foco deve estar em aproveitar a oportunidade e gerenciar os riscos. Um caminho pouco explorado (ou pelo menos difundido) é a ideia de priorizar o desenvolvimento e implementação de tecnologia de IA de código aberto13. Isso ajudaria a desenvolver tecnologias avançadas de IA de código aberto, transparentes e controladas democraticamente.

Não há como duvidar da importância dos avanços científicos e tecnológicos e seu impacto na qualidade de vida dos seres humanos. O mau uso desses avanços não são as "desvantagens da ciência", mas sim as consequências do mau uso do conhecimento científico ou das novas tecnologias por parte dos humanos, que são os mesmos que programam a IA e lhe atribuem tarefas que claramente não deveriam ser das mãos da IA. Como exemplo disso, Narayanan cita os programas de identificação de pessoas em risco de abandono da universidade, de detecção de riscos criminais e de moderação de conteúdo nas redes sociais. Esses programas tiveram falhas notáveis. A mídia social tem sido usada para incitar a violência, talvez até a violência genocida, em muitas partes do mundo, incluindo Mianmar, Sri Lanka e Etiópia. Todas essas foram falhas na moderação de conteúdo, incluindo IA como moderador de conteúdo12.

Inquestionavelmente, como em outras áreas, acreditamos que o ser humano deve ser sempre o responsável pela prática científica. Isso inclui as estruturas que os abrigam e desenvolvem, instituições de pesquisa, universidades, comitês de ética em pesquisa, etc. Os editores de revistas científicas devem adotar políticas explícitas que aumentem a conscientização e exijam transparência sobre o uso de IA conversacional na preparação de material para publicação. Cada autor deve ser eticamente responsável por verificar cuidadosamente seu texto, resultados, dados, códigos e referências.

Mal estamos nos primeiros capítulos da primeira temporada que promete ser emocionante. Por enquanto, sugerimos continuar lendo os artigos da Revista Medicina na web, todos os quais, até onde sabemos, são escritos por autores humanos.


Autor: Dr. Eduardo Luis De Vito                       

Dr. De Vito é um pneumologista especializado no cuidado de pessoas com doenças neuromusculares; É Professor de Medicina Interna da Faculdade de Medicina da Universidade de Buenos Aires, Chefe do Departamento de Pneumologia e Laboratório Pulmonar do Instituto Lanari da Universidade de Buenos Aires, Diretor do Parque Centro de Cuidados Respiratórios e Membro do Comissão de Redação da Revista de Medicina. Foi presidente da Associação Argentina de Medicina Respiratória (AAMR), Investigador Clínico do CONICET e diretor do Instituto de Pesquisas Médicas Alfredo Lanari da Universidade de Buenos Aires.


A IntraMed agradece à revista Medicina (Buenos Aires) pela permissão para publicação deste artigo.