Una investigación del organismo ha revelado que la compañía, con una base de datos de más de 10.000 millones de imágenes de rostros de personas de todo el mundo, “permite, en contra de lo que afirma, el seguimiento de ciudadanos italianos y de personas ubicadas en Italia”, revela en un comunicado.
Clearview AI ofrece un servicio de búsqueda altamente cualificado que, gracias a sistemas de IA, permite crear perfiles basados en los datos biométricos extraídos de web públicas, posiblemente enriquecidos con otra información relacionada, como el título y la geolocalización de la foto, la página web de publicación, explica.
Lea más: Urgen una ley de protección de datos tras afiliaciones falsas a la ANR
“Los resultados (de la investigación) revelaron que los datos personales en poder de la empresa, incluidos los datos biométricos y de geolocalización, se tratan de forma ilegal, sin una base legal adecuada”.
Además, la compañía ha vulnerado también “las obligaciones de transparencia, al no haber informado adecuadamente a los usuarios; de limitación de la finalidad, al haber utilizado los datos de los usuarios para fines distintos a los publicados en línea, y de limitación de la conservación, al no haber establecido periodos de conservación de los datos”.
Protección de la intimidad
Por todo ello, “las actividades de Clearview AI violaron las libertades de los interesados, incluida la protección de la intimidad y el derecho a no ser discriminado”, lo que ha llevado al garante a imponerle una multa administrativa de 20 millones de euros, además de ordenarle “el borrado de los datos de las personas en Italia y prohibirle que siguiera recogiendo y procesando esos datos a través de su sistema de reconocimiento facial”.
En octubre pasado, el Parlamento Europeo instó a prohibir las actuaciones policiales predictivas basadas en datos de comportamientos obtenidos por los sistemas de inteligencia artificial (IA) y el reconocimiento facial con bases de datos privadas y mencionó concretamente a Clearview.
Los eurodiputados advirtieron de que los sistemas de identificación basados en IA identifican erróneamente a los grupos étnicos minoritarios, a las personas LGBTI, a las personas mayores y a las mujeres en mayor proporción, lo que es “especialmente preocupante” cuando ha de aplicarse la ley o en el control de fronteras.
Por ello, exigieron que se prohíban la vigilancia del comportamiento de ciudadanos, el uso de la IA para el control de fronteras y el reconocimiento automatizado de personas en espacios públicos.