Los creadores de la Inteligencia Artificial advierten por carta que esta tecnología pone en «peligro de extinción» a la humanidad

291

Una pandemia o una guerra nuclear son catástrofes similares a la que puede ocurrir si no hace una regulación efectiva de la Inteligencia Artificial, según han afirmado en una carta un grupo de 350 ejecutivos, investigadores e ingenieros expertos en esta tecnología, entre los que se encuentran los líderes de OpenAI, creador de ChatGPT, Google DeepMind, Anthropic.


En apenas 22 palabras, consideran que limitar el uso de estas nuevas tecnologías debería ser una «prioridad mundial»: «Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear», indica el comunicado publicado por Center for AI Safety, una organización sin fines de lucro con sede en San Francisco.

Entre los firmantes se encuentra tres de las principales empresas de inteligencia artificial: Sam Altman (presidente ejecutivo de OpenAI), Demis Hassabis (Google DeepMind) y Dario Amodei (Anthropic). Además, otros de los firmantes del comunicado son Geoffrey Hinton -quien fue bautizado como el «padrino» de la IA y tuvo parte de su carrera en Google- y Youshua Bengio, dos de los tres investigadores de IA que ganaron el Premio Turing 2018 -premio conocido popularmente como el Premio Nobel de la informática- por su trabajo en IA.

Durante su encuentro con Pedro Sánchez, Altman ya insistía en este mensaje: «Con la IA debemos tener el mismo cuidado que con las armas nucleares», aseguró. En ese contexto, Sánchez defendió la necesidad de un órgano global de supervisión de esta tecnología y la importancia de la próxima aprobación del reglamento europeo de Inteligencia Artificial (AI Act), cuya negociación ha dicho será prioritaria para la presidencia española del Consejo de la UE.

Desde que el chatbot de OpenAI, ChatGPT, se lanzó en noviembre de 2022, ha aumentado la preocupación sobre las consecuencias que podría conllevar el éxito de esta tecnología, siendo dos de los mayores temores la difusión a gran escala de desinformación y propaganda y la posible eliminación de trabajos de todo tipo. Por su parte, Hinton, en una reciente entrevista con The New York Times el pasado 1 de mayo, fue un paso más lejos y señaló su preocupación por que esta tecnología supere la capacidad intelectual de un humano.

«La idea de que estas cosas en realidad podrían volverse más inteligentes que las personas, algunas personas lo creían», explicó en esa entrevista. «Pero la mayoría de la gente pensaba que estaba muy lejos. Yo pensaba que estaba muy lejos. Pensaba que faltaban entre 30 y 50 años o incluso más. Obviamente, ya no pienso eso», comentó Hinton entonces.

Este mes, Altman, Hassabis y Amodei se reunieron con el presidente de Estados Unidos, Joe Biden, y la vicepresidenta, Kamala Harris, para hablar sobre la regulación de la AI. Además, el director ejecutivo de OpenAI testificó ante el Senado y advirtió que los riesgos de esta tecnología eran lo suficientemente serios como para justificar la intervención del Gobierno.

En marzo, más de mil empresarios e investigadores del sector tecnológico -entre ellos Elon Musk, quien no firma la carta de este martes- solicitaron en una misiva de tono apocalíptico que se suspendan durante seis meses los sistemas de IA «más poderosos que GPT-4» -el último modelo de OpenAI-.

SER