Harari denuncia el “potencial totalitario” de IA y pone de ejemplo las prácticas de Israel

MADRID. El historiador, filósofo y escritor israelí Yuval Noah Harari advirtió este lunes del “potencial totalitario” de la inteligencia artificial y puso el ejemplo de su país, Israel, “que está construyendo un régimen de vigilancia total” en los territorios ocupados.

Una adolescente hace sus tareas escolares con Inteligencia ArtificialShutterstock
audima

“Hay un potencial totalitario en la IA como nada que hayamos visto antes”, señaló en rueda de prensa telemática desde Washington con motivo de la publicación de su nuevo ensayo, “Nexus”, que analiza el papel de las redes de información desde la Edad de Piedra hasta la aparición de la inteligencia artificial.

Harari se ha convertido en un influyente intelectual y divulgador a raíz del éxito de ‘Sapiens: a brief history of humankind ‘, que vendió más de 21 millones de ejemplares en 65 idiomas y al que siguieron otros fenómenos editoriales como ‘Homo Deus. a brief history of tomorrow’ y ‘21 lessons for the 21st century’.

Según el autor, la “inmensa capacidad” de la IA para recoger y analizar información hará posible “el régimen de vigilancia completa que anule la privacidad”, algo que no lograron Hitler o Stalin y que ahora están empezando a aplicar países como Israel en los territorios ocupados o Irán con cámaras de reconocimiento facial que vigilan y castigan la ausencia del velo en las mujeres.

Teniendo en cuenta que la revolución de la IA está en sus pasos iniciales, Harari enfatizó la necesidad de cuestionarla, ya que a pesar de que tiene "un enorme potencial positivo" existen "grandes corporaciones extremadamente ricas y poderosas que ya nos inundan con los mensajes positivos e ignoran los peligros".

Para Hariri la diferencia esencial entre democracia y un régimen totalitario es "la conversación", que actualmente ve en grave peligro por la crisis del periodismo y la propagación de "mentiras y teorías conspirativas" en las redes sociales.

Por ello, ve crucial generar “un debate sobre la responsabilidad de los gigantes mediáticos”. “Las corporaciones deben tener una responsabilidad por lo que deciden sus algoritmos del mismo modo que el editor del New York Times es responsable de su portada”, señaló.

En ese sentido, alertó de que “la manera mas fácil de capturar la atención es apretar el botón del odio o el botón del miedo y expandir de forma deliberada teorías conspirativas”, en referencia a la promoción en redes sociales de determinados contenidos para que sean vistos de forma prioritaria.

También recordó que “la extrema derecha y la extrema izquierda” tienen en común su interés en generar desconfianza hacia las instituciones que “garantizan” la verdad, sean los medios de comunicación, la ciencia o las universidades.

“Comparten la visión cínica de que la única realidad es el poder”, señaló, “la democracia se basa en la confianza (...) si destruyes la confianza en las instituciones estás pavimentando el camino para las dictaduras”.

Lo
más leído
del día