Un noruego presentó una denuncia tras descubrir que ChatGPT lo presentaba por error como un criminal que mató a dos de sus hijos.
“Lo que más miedo me da es que alguien pueda leer eso y pensar que es cierto”, declaró en un comunicado Arve Hjalmar Holmen, representado por la asociación austriaca Noyb, que milita a favor de la protección de la vida privada.
Lea más: Google lanza smartphone de gama baja, un “excelente primer teléfono” para niños
Desde ese incidente, el grupo estadounidense OpenAI, creador del chatbot, ha actualizado su modelo y ya no presenta a Arve Hjalmar Holmen como un asesino. Pero estos datos falsos pueden permanecer en los sistemas internos, deplora Noyb.
Información falsa
“ChatGPT da regularmente información falsa (...) que puede dañar gravemente la reputación de una persona, acusando falsamente a personas de corrupción, abuso de menores o incluso asesinato”, denunció Noyb en un comunicado.
“Al permitir a sabiendas que su modelo de IA cree resultados difamatorios, OpenAI viola el principio de exactitud” consagrado en el Reglamento General de Protección de Datos europeo (RGPD), añadió la ONG, que pide que se “eliminen” los elementos infractores, se mejore la tecnología y se imponga “una multa administrativa”.
Lea más: La IA podría ser clave para la supervivencia de los medios de comunicación
La empresa estadounidense, figura de proa de la IA generativa, se hizo famosa al lanzar ChatGPT, el chatbot (robot conversacional), a finales de 2022.
La herramienta democratizó el uso de la IA.