“Es un marco muy general que facilita predecir la vida humana. Puede predecir cualquier cosa con la condición de disponer de datos”, dice Sune Lehmann, profesor de la Universidad técnica de Dinamarca (DTU) , y uno de los autores del estudio publicado en la revista Nature Computational Science. Según él, las posibilidades son infinitas.
“Podría predecir los resultados en materia de salud. Podría predecir la fertilidad o la obesidad, o tal vez quien tendrá o no cáncer. Pero podría predecir también si usted va a ganar mucho dinero”, agregó. En concreto, life2vec utiliza un modelo similar al ChatGPT pero en vez de tratar datos textuales, analiza estadísticas como el nacimiento, los estudios, las prestaciones sociales o los horarios de trabajo.
“Desde cierto punto de vista, la vida solo es una sucesión de acontecimientos: la gente nace, va al pediatra, a la escuela, cambia de casa, contrae matrimonio”, afirma el estudio.
“Explotamos aquí esta similitud para adaptar las innovaciones del tratamiento automático del lenguaje natural al examen de la evolución y la previsibilidad de las vidas humanas con base en secuencias de acontecimientos detallados” , precisa.
Millones de personas analizadas
Se basa en datos anónimos de millones de daneses, reunidos por el Instituto Nacional de Estadísticas de este país nórdico. El análisis de las secuencias facilita predecir lo que seguirá hasta el fin. Sobre la muerte, el algoritmo tiene razón en 78% de los casos, y sobre las migraciones, en 73%.
“Con una muestra de personas de entre 35 y 65 años, se busca predecir basándose en un periodo de ocho años, de 2008 a 2016, si la persona va a morir en los próximos cuatro años, hasta 2020. El modelo hace eso muy bien, mejor que ningún otro algoritmo”, dice Lehmann, quien no usa su fórmula en casos personales. Este segmento de edad, en que los decesos por lo regular son pocos, facilita, según los investigadores, verificar la fiabilidad del programa.
Pero el instrumento no está listo para ser utilizado por el público en general. “Por ahora es un proyecto de investigación que explora el campo de las posibilidades (...), ¡y no sabemos si trata a todos de igual manera!” , explica.
Todavía queda por estudiar el efecto a largo plazo, las conexiones sociales y la posibilidad de predecir el rumbo de las vidas.
Contrapeso
Para el universitario, el proyecto presenta un contrapeso científico para los algoritmos desarrollados por los gigantes como Google, Apple, Facebook, Amazon y Microsoft. “Ellos también pueden construir modelos de ese mismo tipo, pero no los hacen públicos ni hablan de ellos”, dice. “Podemos suponer que los perfeccionen solo para hacernos comprar más productos”, agregó.
Para él, es “importante tener un contrapeso público y abierto para comenzar a comprender lo que se puede hacer con los datos de ese tipo”.
Y mucho más porque los algoritmos de ese tipo ya son seguramente utilizados en el campo de los seguros, indica la experta en ética, Pernille Tranberg.
“Nos han puesto seguramente en grupos (...) y eso puede ser utilizado en contra nuestra pues nos pueden obligar a pagar un seguro más elevado, o a que nos rechacen un préstamo en el banco o el acceso a la atención médica pública pues uno morirá de todas maneras”, añade.
“No hay casos de fuga de datos” personales con el Instituto Nacional de Estadísticas, y “los datos no son individualizados”, subraya. Sin embargo, con el desarrollo de la inteligencia artificial, “todo se acelera”.