Sam Altman, CEO da OpenAI, pediu a regulamentação da inteligência artificial durante uma audiência no Senado dos EUA. “Acreditamos que a intervenção regulatória dos governos será essencial para mitigar os riscos de modelos cada vez mais poderosos”, disse Altman.
Uma lista crescente de empresas de tecnologia implantou novas ferramentas de IA nos últimos meses, com potencial para mudar a forma como trabalhamos, fazemos compras e interagimos uns com os outros. Mas estas mesmas ferramentas também suscitaram críticas pelo seu potencial de perturbar milhões de empregos, espalhar desinformação e perpetuar preconceitos.
“Haverá um impacto no emprego”, disse Altman. “Estamos tentando ser muito claros sobre isso e acho que será necessária a colaboração entre a indústria e o governo, mas especialmente a ação governamental, para descobrir como queremos mitigá-lo."
Como CEO da OpenAI, Altman, talvez mais do que qualquer outra figura, tornou-se o rosto de uma nova geração de produtos de IA capazes de gerar imagens e texto em resposta à entrada do utilizador.
Algumas pessoas esperam que Altman e OpenAI atuem com mais cautela. Elon Musk, que ajudou a fundar a OpenAI antes de se separar do grupo, juntou-se a dezenas de líderes tecnológicos, professores e investigadores na assinatura de uma carta apelando aos laboratórios de IA para pararem de treinar sistemas mais poderosos durante pelo menos seis meses, citando riscos profundos para a sociedade e a humanidade."
Altman reconheceu concordar com partes da carta. “Acho que agir com cautela e aumentar o rigor nas questões de segurança é realmente importante”.
Alertas sobre inteligência artificial |
Apesar dos surpreendentes avanços da inteligência artificial, seu surgimento massivo também trouxe efeitos negativos, em muitos casos com destaque para questões trabalhistas ou de direitos autorais.
> IA consciente
Em julho do ano passado, um engenheiro do Google foi demitido da empresa devido a um problema que na época não causava tanto impacto como agora no público em geral. Blake Lemoine, que era então engenheiro de software no Google, afirmou que uma tecnologia de conversação chamada LaMDA (ou "Modelo de Linguagem para Aplicações de Diálogo") atingiu um nível de consciência depois de trocar milhares de mensagens com ela.
Comentarios
Para ver los comentarios de sus colegas o para expresar su opinión debe ingresar con su cuenta de IntraMed.