La investigadora de la Universidad de Harvard Aleksandra Przegalinska se muestra convencida de que, una vez indaguen a fondo sobre la inteligencia artificial, los poderes públicos “verán inmediatamente que tal vez junto a su potencial puede venir un cierto abuso de poder”.
En este sentido, celebra la ley pionera que ha propuesto la Comisión Europea, ya que “contempla la IA desde la perspectiva del riesgo”, según dijo la profesora tras participar en la Escuela de Liderazgo Femenino que organiza la compañía tecnológica china Huawei, y que reunió esta semana en Praga a jóvenes talentos de toda Europa.
Lea más: Google despide al ingeniero que aseguró que un progama podía sentir
“Hay esperanza asociada a la IA, y eso deberíamos destacarlo. Pero también hay un riesgo asociado a la inteligencia artificial, o más bien al mal uso de la inteligencia artificial. Y creo que es bueno que tengamos esta regulación”, asegura.
La normativa que prepara Bruselas contempla desde los usos de la IA que conllevan un riesgo ‘bajo’ hasta los que llevan implícito un riesgo ‘alto’, un criterio que, según Przegalinska, varía en función del “impacto en la vida humana” que tenga esta tecnología.
“Pensemos en un área como la previsión del tiempo. No es algo que vaya a perjudicar a alguien si simplemente le dices que va a llover. Es un problema menor comparado con una situación en la que un algoritmo sesgado afirma que tienes una enfermedad que en realidad no tienes, o donde un algoritmo muy complejo te dice que no puedes obtener un préstamo y no sabes por qué”, plantea.
Las mujeres, las más perjudicadas
En estas situaciones que expone Przegalinska, las mujeres son, con frecuencia, las más afectadas, dado que sus parámetros están infrarrepresentados en las bases de datos con las que operan los algoritmos y que son, pues, una correa de transmisión de las discriminaciones reales que la mujer sufre en el mundo analógico.
“La tecnología no es el problema; sino la gente. Hay un dicho en el mundo de la IA que dice: ‘basura fuera, basura dentro’. Entonces, si los datos están sesgados, por supuesto que habrá también un sesgo en el sistema”, asevera la jefa del área de ciencias cognitivas de la Universidad de Tillburg, Maria Postma, que también habló con EFE.
La profesora recuerda que la IA es un intento de “crear una versión artificial de la inteligencia humana” para usarse, por ejemplo, en la traducción simultánea de idiomas o la conducción autónoma de vehículos, de modo que la idea de base fue, según ella, “crear una especie de simulación de cerebro humano”.
La IA se nutre de bases de datos y a partir de esta información genera, a su vez, algoritmos con modelos matemáticos que guían sus acciones.
Sesgo de género en la IA
“Pongamos que en una base de datos hay información basada en las decisiones que se han tomado en el pasado sobre los perfiles de los candidatos a un empleo. Y, en el pasado, se tomaban muchas decisiones con un sesgo de género y candidatas mujeres no eran seleccionadas para un puesto determinado”, expone como ejemplo.
Y prosigue: “Si el sistema trabaja con esta información, entonces va a usar el género como una variable en su proceso de toma de decisión, porque la IA pensará que, si excluye a las mujeres, llegará a la misma decisión que los humanos hicieron en el pasado”, alerta.
Tanto Postma como Przegalinska reivindican la existencia de soluciones para detener esta espiral de sesgo, que pasan o bien por “excluir la variable género” del sistema, según dice Postma, o bien por “estropear a propósito” el modelo matemático de la IA, propone Przegalinska, desordenando y mezclando los datos, a fin de “aumentar la aleatoriedad” de los algoritmos.
Para la directora de la Escuela de Liderazgo Femenino, la española Berta Herrero, el ámbito de trabajo de estas dos expertas refleja que aún “hacen falta especialistas en ética” en el campo de la IA.
La representante española en la Escuela, Maitane González, una bilbaína de 22 años que acaba de graduarse en Derecho, se muestra partidaria de “regular con anterioridad” nuevas tecnologías como la IA para prevenir.