“Hace tres años, nadie pensaba en la regulación de la IA, solo Europa. Europa era la tercera vía entre dos modelos muy establecidos: el modelo estadounidense, donde los datos son propiedad de las grandes empresas, y el modelo chino, donde los datos son propiedad de los Gobiernos. Nosotros defendemos que los datos tienen que estar en manos de los ciudadanos”, destacó a EFE la secretaria de estado de Digitalización e Inteligencia Artificial del Gobierno de España, Carme Artigas.
La Unión Europea empezó los trabajos de regularización de la IA en 2019 y ya está en “la fase final”, de acuerdo con Artigas. Pero a nivel mundial todo cambió con la popularidad del chatbot de IA generativa de OpenAI, ChatGPT, que se popularizó a finales del año pasado.
Lea más: Una interfaz cerebro-ordenador con inteligencia artificial permite andar a un parapléjico
“ChatGPT ha puesto en relevancia que esta tecnología tiene un nivel de aceleración altísimo y que impacta en todos los ámbitos. La gente se ha dado cuenta de que esto no era el futuro, sino el presente y eso ha despertado también esa preocupación por otros gobiernos y la propia industria”, anota la representante española.
La obligación moral de la regulación de la IA
Artigas destaca que estas regulaciones van más allá de lo técnico y lo legal, ya que “en el fondo es un estándar moral”. ”Estamos diciendo qué queremos como ciudadanos, qué puede la IA y qué no queremos que haga, aunque técnicamente sea posible”, explicó.
Entre los ejemplos que pone la experta sobre la protección que busca el Viejo Continente es que esta tecnología no sea capaz de generar un nivel de vigilancia que pueda determinar si eres o no un buen ciudadano y que eso te pueda privar de derechos, algo que, según Artigas, sucede con la IA en China.
Lea más: ONU pide que se inserten los derechos humanos en la inteligencia artificial
Legislación de IA no debe matar innovación
Artigas también señaló que otro punto clave es hacer que estas legislaciones no “maten a la innovación”. Todos los participantes de este acto que se celebró en el marco de la Asamblea General han subrayado la importancia de trabajar codo con codo con las empresas que lideran este sector -como Google o Microsoft-.
La política española destacó que estas empresas están muy a favor de que las naciones creen regulaciones para los posibles problemas de la IA, ya que "la gente tiene que confiar en que esta herramienta es segura y que no miente".
IA debe ser universal e imparcial
Otro de los puntos en los que coincidieron los ponentes de esta conferencia que se celebró en la sede de la Biblioteca Nacional es que esta tecnología tiene que llegar a todo el mundo y tiene que ser imparcial. El ministro británico de Exteriores, James Cleverly, recordó que aún estamos muy lejos del primer reto, ya que 2.700 millones de personas en todo el mundo no tienen acceso a Internet.
Lea más: Inteligencia artificial: ¿una moda o la tecnología del futuro?
Con respecto a la imparcialidad, el secretario general adjunto de la OCDE, Urik Knudsen, destacó que hay un gran desequilibrio de género en las empresas de IA y ejemplificó su idea señalando que pese a que la mayoría de los directores ejecutivos de este tipo de empresas son hombres, las voces de los asistentes inteligentes, como Siri de Apple o Alexa de Amazon, son de mujeres.