Los premios nobel en Física, Química y Economía de este año participaron hoy en una rueda de prensa en Estocolmo, donde el martes próximo recibirán el galardón, y que se centró casi exclusivamente en la Inteligencia Artificial (IA), que en esta edición ha sido la protagonista en dos las categorías.
Todos reconocieron los aspectos positivos de la IA, pero no hay que pasar por alto las amenazas que puede entrañar o la posibilidad de que algún día se llegue a una superintelifencia artificial (con una alcance intelectual superior a la humana), de ahí la necesidad y el desafío de regularla.
Lea más: Creadores musicales y audiovisuales perderían más del 20% de ingresos por la IA para 2028
“La IA es una tecnología muy importante que hay regular, pero creo que es muy importante que establezcamos las regulaciones correctas” y eso es “lo más difícil en este momento” porque es “una tecnología que evoluciona muy rápidamente”, destacó Hassabis, consejero delegado de Google DeepMind, la parte de investigación en IA de Google.
IA: una tecnología que avanza muy deprisa
En este momento, la IA es una tecnología que avanza y evoluciona muy deprisa, y lo que se debatió sobre ella hace unos años “no es en lo que estaríamos pensado ahora”, agregó.
Por ello, Hassabi aconsejó a los gobiernos y a la sociedad civil “que establezcan normativas rápidas y ágiles, que se basen en las normativas que ya existen en ámbitos como la sanidad o el transporte, y que vean cómo evoluciona la tecnología y se adapten rápidamente a su evolución”.
Lea más: IA en la religión: holograma de Jesucristo hablaba con fieles en una iglesia católica de Suiza
Para el premio nobel de Física Geoffrey Hinton, considerado el padrino de la IA, uno de los peligros a corto plazo es el desarrollo de “armas autónomas letales” y aseguró que “no va a haber ninguna regulación al respecto”.
Hinton, que el año pasado abandonó Google para poder alertar libremente sobre los riesgos de la IA y la posibilidad de que se salga de control, dijo que “los gobiernos no están dispuestos a regularse cuando se trata de armas autónomas letales”.
El nobel dijo que ya “se está produciendo una carrera armamentística entre los principales países proveedores de armas como Estados Unidos, China. Rusia, Reino Unido, Israel”.
Desde el punto de vista del economista, el premio nobel en esa disciplina Daron Acemoglu dijo que la regulación debe ser un interés de primer orden, aunque es difícil, “tanto por la rapidez con que evoluciona la IA, como por la naturaleza internacional de los avances, su despliegue y porque hay muy poca experiencia de regulación en estos ámbitos”.
Acemoglu, que ha estudiado la importancia de las instituciones en la prosperidad de las naciones, destacó que hoy la regulación es "muy reactiva", pero que, con lo “disruptiva, importante y omnipresente que va a ser la IA", serían necesarias "algunas regulaciones más proactivas”.
La IA será “una de las tecnologías más poderosas, si no la más poderosa que la Humanidad invente jamás”, pero siempre "hemos sido conscientes de "los riesgos que conlleva cualquier tecnología potente de propósito general”, dijo Hassabis, quien insistió en que se los toman muy en serio.
Pero se trata “de una cuestión social, no solo tecnológica: ¿Para qué queremos utilizar estos sistemas, cómo queremos desplegarlos?” y asegurarse de que “toda la humanidad se beneficia de lo que pueden hacer”.
Hinton, de la Universidad de Toronto (Canadá), se mostró convencido de que la superinteligencia artificial llegará y la velocidad de los últimos avances le hacen pensar que “va a ser bastante pronto”.
El nobel consideró que tendremos “algo parecido a la superinteligencia dentro de “entre 5 y 20 años”, momento en que “tendremos que preocuparnos seriamente por cómo mantener el control”.
Premiado por sus investigaciones sobre las redes neuronales artificiales, con las que ahora aprenden las máquinas, dijo que como una superinteligencia artificial llegará “más rápido de lo que pensaba”, ahora desearía haber pensado “antes en la seguridad.