Paolo Benanti, fraile y experto en IA: “Es urgente acordar un guardarraíl ético”

ROMA. Paolo Benanti compagina su vida de fraile en un monasterio romano con su profundo conocimiento sobre algoritmos y tecnologías, como uno de los expertos de la ONU que siguen el advenimiento de la Inteligencia Artificial: “Es urgente acordar un guardarraíl ético” para que no descarrile, alega en una entrevista con EFE, llamando a no divinizar ni temer esta prodigiosa herramienta.

Paolo Benanti compagina su vida de fraile en un monasterio romano con su profundo conocimiento sobre algoritmos y tecnologías, como uno de los expertos de la ONU que siguen el advenimiento de la Inteligencia Artificial: "Es urgente acordar un guardarraíl ético" para que no descarrile, llamando a no divinizar ni temer esta prodigiosa herramienta.
Paolo Benanti compagina su vida de fraile en un monasterio romano con su profundo conocimiento sobre algoritmos y tecnologías, como uno de los expertos de la ONU que siguen el advenimiento de la Inteligencia Artificial: "Es urgente acordar un guardarraíl ético" para que no descarrile, llamando a no divinizar ni temer esta prodigiosa herramienta.Gonzalo Sánchez.

“Vamos con retraso y quizá somos algo ineficaces, pues la cuestión es que si estos instrumentos no tienen unos sólidos guardarraíles éticos, después serán difícilmente contenibles por un código ético externo”, augura.

Paolo Benanti (Roma, 1973) recorre la capital italiana con su hábito franciscano y una de esas mochilas de oficinista a la espalda. Para él, definitivamente, la vida contemplativa supera los muros del monasterio en el que reside, en plenos Foros Imperiales.

Este fraile es, en realidad, un reputado experto en ética de las tecnologías y licenciado en Teología Moral por la Pontificia Universidad Gregoriana con la tesis “The Cyborg: Cuerpo y corporeidad en la era del poshumano” (2008).

Su competencia es tal que en octubre de 2023 fue nombrado uno de los 38 expertos consultores de Naciones Unidas sobre Inteligencia Artificial (IA) y, poco después, le reclutó el Gobierno de Giorgia Meloni como presidente de la Comisión sobre la materia, que será uno de los temas centrales de la próxima cumbre de líderes del G7, que este año preside Italia.

“Tuvimos grandes científicos en la orden franciscana, como Roger Bacon. Desde el punto de vista de la fe, la razón es un don de Dios, por lo que todo lo que sigue la razón no es contrario a Dios”, dispara, parsimonioso, sobre su doble “vocación”.

Paolo Benanti, fraile y experto en IA en mundos que no son incompatibles

Fray Paolo estudiaba Ingeniería hasta que “a finales del pasado siglo”, confiesa imprecisa e irónicamente, optó por lo monacal, aunque pronto descubriría que ambos mundos no eran incompatibles.

“Piense en el hermano Ramón Llull, que escribió el ‘Ars Magna’, texto que inspiraría la Lógica de Leibniz, base de la computación. Ni siquiera soy el primero de la familia”, se justifica, mientras de su manga asoma un reloj inteligente.

Ahora los tiempos están cambiando y el mundo empieza a convivir con la IA, con máquinas que interactúan con sus usuarios ofreciendo avances prodigiosos pero también dudas y desinformación.

Por eso, el fraile ve apremiante crear “un guardarraíl” ético que la encauce para que no se pervierta en su servicio a la humanidad.

Pero, ¿cómo puede la agrietada geopolítica actual acordar algo así? Para ello distingue entre valores, normas y principios.

Paolo Benanti, fraile y experto en IA recuerda el principio de minimizar los daños

Los primeros, apunta, no pueden guiar una IA planetaria porque cambian en función de las culturas. Las segundas sirven básicamente para protegen los valores y los principios, en cambio, sí ofrecen una vía “más fácil para encontrar un acuerdo global”.

“Pensemos en un coche descontrolado: si giras a la izquierda matas a una persona, si lo haces a la derecha, a dos. En ambos casos consta el valor de la vida, pero el ‘principio’ de minimizar los daños ayuda. Los principios éticos son globales”, insiste.

Así, máximas como la transparencia, la fiabilidad o la protección de los más débiles deberían marcar el progreso de la IA.

No obstante, Fray Paolo defiende que no tiene por qué ser empleada para hacer el mal. El hombre tuvo siempre que afrontar este brete desde que hace 60.000 años decidiera en las cavernas si usaba el garrote para abrir nueces o cráneos. Y aquí seguimos.

“El problema no está en la tecnología, sino en nuestra conciencia”, sostiene. Por eso cree que el hombre se acostumbrará a la IA como lo hizo con la bicicleta y recomienda “no dejarse atrapar por una hermenéutica de la búsqueda del mal”, no temerlo.

No divinizar una herramienta

“Debemos estudiar todo el bien que puede hacer, no solo temerlo. No pensar en si puede errar en medicina, comprender cómo puede hacer de cada médico el mejor sobre la Tierra”, insta.

Aunque, claro está, tampoco conviene subestimar “el misterio del mal”, la tentación de usarla con intereses fraudulentos, por no decir políticos o económicos.

El padre, usuario de redes sociales, sabe que los humanos se encomiendan a los algoritmos hasta para buscar pareja y casi esperan las notificaciones en sus teléfonos como “caricias”. Por eso, cree que no se deberían “divinizar” estas herramientas.

¿Podrá la tecnología eclipsar lo divino? El fraile cita el cuento de Arthur C. Clark en el que un aparato, a la eterna pregunta de si existe Dios, responde: “Ahora sí”.

“La cuestión no es si la IA podrá ayudar o perjudicar la búsqueda de Dios, sino si proyectaremos en ella un poder que la divinice. Cada vez que divinizamos una herramienta, creamos los mayores desastres de la historia”, advierte.

Enlance copiado
Content ...
Cargando...Cargando ...