Claves éticas para desarrollar la inteligencia artificial

La Comisión Europea (CE) presentó este semana sus líneas maestras para desarrollar la inteligencia artificial (IA) garantizando el objetivo de conseguir beneficios para toda la sociedad.

/pf/resources/images/abc-placeholder.png?d=2074

Cargando...

“La dimensión ética de la inteligencia artificial no es una característica de lujo o un añadido: tiene que ser parte integral de su desarrollo”, señala en sus conclusiones la “comunicación” sobre la materia presentada por la CE, que consiste en un documento orientativo con vinculaciones legales y elaborado a partir del trabajo de un grupo interdisciplinar de expertos en la materia.

El primer desafío ético de esa nueva tecnología, apunta el documento, pasa por ganar confianza entre los ciudadanos y para ello el sector y los agentes políticos llamados a regularlo deben fijarse como meta “incrementar el bienestar”, observando valores de la Unión Europea como “el respeto a la dignidad humana, la democracia, la igualdad, el Estado de derecho y los derechos humanos”.

A partir de ahí, los expertos consultados por el Ejecutivo comunitario han identificado una serie de requerimientos clave para el desarrollo de la IA, en función del contexto: no es lo mismo una herramienta que falle al recomendar un libro a un lector que una aplicación que diagnostica erróneamente un cáncer, subraya la CE.

ÁREAS CLAVE DE LA ÉTICA DE LOS ROBOTS

1. Debe de ser supervisada por seres humanos, con las “apropiadas medidas de contingencia”.

2. Los sistemas deben de ser “resistentes” y “resilientes” ante eventuales intentos de manipulaciones o de pirateo y dotarse de planes de contingencia.

3. Se debe garantizar la privacidad de los datos de los ciudadanos en todo el ciclo vital de la inteligencia artificial.

4. La IA debe de ser transparente, lo que supone poder reconstruir cómo y por qué se comporta de una determinada manera y quienes interactúen con esos sistemas deben de saber que se trata de inteligencia artificial así como qué personas son sus responsables.

5. La inteligencia artificial debe de tener en cuenta la diversidad social desde su desarrollo para garantizar que los algoritmos en que se base no tengan sesgos discriminatorios directos o indirectos.

6. El desarrollo tecnológico debe de tener en cuenta su impacto social y medioambiental de forma que sea sostenible y ecológicamente responsable.

7. La inteligencia artificial y sus resultados deben de rendir cuentas ante auditores externos e internos.

PRÓXIMOS PASOS

La CE presentará ahora estas guías éticas a los Estados miembros de la UE y a los distintos actores del sector y, a partir de junio, diseñará una fase piloto para obtener retroalimentación de quienes están implicados en el salto tecnológico que suponen las máquinas capaces de aprender y decidir por sí mismas.

A partir de esa información, se actualizarán las guías sobre ética robótica a inicios de 2020 de la Comisión Europea, que planea destinar 1.000 millones de euros anuales a partir de 2020 y espera que en total se movilicen 200.000 millones en la próxima década.

Enlance copiado
Content ...
Cargando...Cargando ...