Instó a regular la inteligencia artificial para mitigar los riesgos

El creador del ChatGPT alertó sobre los riesgos de la inteligencia artificial

Sam Altman garantizó un impacto en los empleos y solicitó accionar con cautela.

Sam Altman, el CEO de OpenAI, instó a regular la inteligencia artificial durante una audiencia en el Senado de EEUU. "Creemos que la intervención reguladora de los gobiernos será fundamental para mitigar los riesgos de modelos cada vez más potentes", dijo Altman en su intervención inicial ante una subcomisión judicial del Senado.

Una lista cada vez mayor de empresas tecnológicas ha desplegado nuevas herramientas de IA en los últimos meses, con el potencial de cambiar la forma en que trabajamos, compramos e interactuamos entre nosotros. Pero estas mismas herramientas también han despertado críticas por su potencial para perturbar millones de empleos, difundir información errónea y perpetuar los prejuicios.

"Habrá un impacto en el empleo", dijo Altman. "Intentamos ser muy claros al respecto, y creo que será necesaria la colaboración entre la industria y el gobierno, pero sobre todo la acción del gobierno, para averiguar cómo queremos mitigarlo. Pero soy muy optimista sobre lo grandes que serán los empleos del futuro".

Como CEO de OpenAI, Altman, quizá más que ninguna otra figura, se ha convertido en el rostro de una nueva generación de productos de IA capaces de generar imágenes y textos en respuesta a las indicaciones de los usuarios.

Algunas personas esperan que Altman y OpenAI actúen con más cautela. Elon Musk, que ayudó a fundar OpenAI antes de separarse del grupo, se unió a docenas de líderes tecnológicos, profesores e investigadores para firmar una carta en la que se pide a los laboratorios de inteligencia artificial como OpenAI que detengan el entrenamiento de los sistemas de IA más potentes durante al menos seis meses, citando "profundos riesgos para la sociedad y la humanidad".

Altman reconoció estar de acuerdo con partes de la carta. "Creo que moverse con cautela y un rigor cada vez mayor para las cuestiones de seguridad es realmente importante", dijo Altman en un evento el mes pasado.

Las advertencias sobre la inteligencia artificial

Más allá de lo sorprendentes que resultan los avances de la inteligencia artifical, su irrupción masiva también trajo aparejados efectos negativos, en muchos casos con énfasis en la cuestión laboral o los derechos de autor.

  • IA consciente

En julio del año pasado, un ingeniero de Google fue despedido por la empresa debido a una cuestión que en esos momentos no causaba tanto impacto como ahora en el público en general.

Blake Lemoine, quien es esos momentos era ingeniero de software de Google, afirmó que una tecnología de conversación llamada LaMDA (o "Modelo de Lenguaje para Aplicaciones de Diálogo") había alcanzado un nivel de consciencia tras intercambiar miles de mensajes con ella.

  • Detenimiento de los avances

Profesores, investigadores y líderes del mundo de la tecnología, entre ellos Elon Musk, pidieron en marzo que los laboratorios de inteligencia artificial (IA) detengan el entrenamiento de los sistemas de IA más poderosos durante al menos seis meses, citando "riesgos profundos para la sociedad y la humanidad".

  • Pérdida de empleo

En marzo, economistas de Goldman Sachs señalaron que hasta 300 millones de empleos de tiempo completo en todo el mundo podrían automatizarse de alguna manera con la nueva ola de inteligencia artificial.

El Foro Económico Mundial (WEF por sus siglas en inglés) indicó en un informe publicado este mes que empresas de todo el mundo esperan una pérdida neta de 14 millones de empleos en los próximos cinco años, esto a medida que se debilita la economía y se impulsa a las tecnologías de IA.

  • Prohibiciones

En  marzo el Gobierno de Italia alertó sobre el ChatGPT por una preocupación respecto a una posible violación de la protección de datos. Esto llevó a la administración a bloquear el acceso a la herramienta de OpenAI hasta que se respete la regulación prevista.

También en este sentido, recientemente Samsung prohibió de manera temporal el uso de inteligencia artificial generativa en los dispositivos de la empresa.

  • Entre la realidad y las fake news

Geoffrey Hinton, considerado el "padrino de la inteligencia artificial", confirmó que dejó su puesto en Google la semana pasada para alertar sobre los "peligros" de la tecnología que él mismo ayudó a desarrollar. Hinton dijo que renunció a Google para poder hablar libremente sobre los peligros de la inteligencia artificial, más que por un deseo de criticar específicamente a Google.

En una entrevista, Hinton se sumó a las preocupaciones sobre el potencial de la inteligencia artificial para eliminar puestos de trabajo y crear un mundo en el que muchos "ya no serán capaces de saber qué es verdad". También señaló el asombroso ritmo de avance, mucho más allá de lo que él y otros habían previsto.


Referencias: CNN, El Mundo, El País