Por ejemplo, en una grabación, se escucha la voz del multimillonario mexicano Carlos Slim recomendando invertir 1.650 pesos mexicanos (unos 98 dólares) en una plataforma petrolera, pero a pesar de la veracidad de su intervención, tras ella hay un código que transformó un conjunto de datos en la voz humana del empresario.
"Recomiendo a todos los mexicanos que se sumen a la innovadora plataforma", dice la voz recreada de Slim en el contenido, que fue desmentido por la Comisión Nacional para la Protección y Defensa de los Usuarios de Servicios Financieros de México (Condusef).
El experto mexicano en desinformación Alberto Escorcia explica que utilizar a famosos como gancho para estafas no es nuevo, pues ya en el pasado estas plataformas han utilizado la imagen de periodistas de medios e imitado sus páginas web para captar víctimas, pero ahora con la IA “es aún mucho más difícil diferenciar la realidad”.
La técnica se replica en todos los países de América Latina, pero con protagonistas diferentes.
En México, además de Slim, circuló hace unos meses un video ultrafalso donde la candidata presidencial Claudia Sheinbaum animaba a invertir en Pemex; en Perú, la presidenta Dina Boluarte lo hacía con las criptomonedas; lo mismo el gobernante ecuatoriano, Daniel Noboa; todos eran falsos.
Además de políticos, utilizan también a artistas o famosos, como el cantante de regional mexicano Carin León o el futbolista colombiano Luis Díaz, que supuestamente convocaba a donaciones para un proyecto futbolístico.
Mientras que el favorito de las creaciones es Elon Musk, algo que llevó incluso a un ejecutivo a transferir 220.000 euros (unos 238.000 dólares al cambio actual) a un supuesto proveedor húngaro recomendado por un falso Musk.
Páginas web que desaparecen a los pocos días
La mayoría de estos engaños son videos o anuncios en formato de publicidad que son publicados junto a un enlace que deriva a una página web externa, difícilmente rastreable por las autoridades, donde se pide que introduzcas tus datos bancarios para una inversión inicial y que a los pocos días desaparece de internet.
El alto desconocimiento de los usuarios sobre los 'deepfakes' provoca que caigan fácilmente en el engaño.
Un estudio de la empresa de antivirus y ciberseguridad Kaspersky de 2022 en Latinoamérica asegura que al menos el 70 % de la población de la región desconoce lo que es un 'deepfake' y el 67 % de los preguntados no supo reconocer cuándo un video fue editado digitalmente usando esta técnica.
Cómo detectarlas
Para Juan Villalobos Revello, profesor de Medios Digitales y Periodismo en el Instituto Tecnológico y de Estudios Superiores de Monterrey, el primer paso para detectar estas estafas es la desconfianza.
"Este instrumento me va a generar un 20 % de intereses, tengo que entrar con una determinada cantidad, necesito una inversión inicial. Tengo que detenerme a ver por qué nos está llegando, quien lo envía, por qué es tan bueno, que implica de mí", explica.
Hasta el momento, varias empresas tecnológicas como Microsoft, Adobe o Intel están desarrollando programas que permitan diferenciar 'deepfakes' de la realidad, aunque por el momento la gran mayoría de ellos están en fases tempranas.
Una de las empresas dedicadas a la identificación de ultrafalsos, Sensity AI, realizó un estudio en el año 2021 en el que ya se alertaba de que solo el 7 % de las imágenes falsas se realizaban para el entretenimiento.
¿Qué están haciendo las redes sociales para frenar los ‘deepfakes’?
Por el momento, solo algunas empresas de redes sociales están tratando de ponerle freno a los 'deepfakes'.
YouTube o Meta, dueña de redes como Facebook o Instagram, realizan labores de etiquetado de este tipo de técnicas que utilicen la inteligencia artificial y han prohibido los 'deepfakes' en sus plataformas, aunque por el momento no se ha demostrado su efectividad.
La situación que ha generado más críticas es la de X. Desde la llegada de Elon Musk, el empresario tomó medidas que no favorecieron a la moderación de contenidos, como el despido del equipo de lucha de la red social contra la desinformación o la readmisión de cuentas de propagadores de odio, teorías conspirativas o estafas.
Otras como TikTok no prohíben este tipo de videos, sino que exigen que estos sean clasificados como imágenes elaboradas con inteligencia artificial a la hora de ser publicados.
Sin embargo, no se pueden compartir anuncios con 'deepfakes' famosos o en los que aparezcan supuestamente reproduciendo un discurso de odio, contenido sexual o violencia gráfica.
Según Escorcia y Villalobos, solo hay una manera de acabar con los ‘deepfakes’, independientemente de mejores herramientas, y de una mayor regulación: tener pausa, contrastar fuentes, hablar con expertos, estudiar las distintas narrativas y comprobar si hay errores como faltas ortográficas. Es decir, volver a las bases del periodismo.