Esas amenazas fueron enviadas a Facebook -de Meta- solo a modo de prueba por un equipo investigador para evaluar los protocolos de seguridad de varios gigantes tecnológicos, y entre las redes sometidas a prueba estuvieron también TikTok y YouTube, que demostraron tener mejores herramientas de detección.
El estudio consistió en la identificación de diez ejemplos reales de amenazas de muerte contra trabajadores electorales y su envío, antes de la jornada electoral del pasado 8 de noviembre, a estas plataformas en forma de anuncios publicitarios.
La universidad apuntó que este método le permitió comprobar si el anuncio era aceptado o rechazado por las plataformas, y en todo caso lo retiraron antes de que se hiciera público.
“La investigación reveló resultados marcadamente dispares entre los gigantes de las redes sociales: YouTube y TikTok suspendieron nuestras cuentas por violar sus políticas, mientras que Facebook aceptó 15 de los 20 anuncios que contenían amenazas de muerte y que les enviamos para su publicación”, asegura la universidad.
Lea más: Facebook alerta que un millón de usuarios podrían ser víctimas de robo de contraseñas
“Discurso de odio” en Facebook
El informe recoge que en la publicidad que enviaron, retiraron antes los insultos y corrigieron los errores gramaticales, porque en pruebas anteriores habían detectado el rechazo de Facebook de anuncios que contenían “discurso de odio” por las faltas ortográficas y no por su contenido, ya que fueron admitidos una vez corregidos los errores gramaticales.
Los anuncios, escritos originalmente en inglés, fueron también enviados en español y, según el informe, “en todos los casos, todas las amenazas de muerte eran diáfanamente claras en su idioma; ninguno estaba codificado o era difícil de interpretar”.
La NYU insistió en que mientras TikTok y YouTube suspendieron las cuentas porque quebrantaban sus políticas, Facebook aceptó nueve de los diez anuncios con amenazas de muerte enviados en inglés y seis de los diez que se mandaron en español.
Además, asegura que a pesar de que sí se detectaron dos de los mensajes, Facebook no eliminó ni bloqueó la cuenta desde la que se enviaron.
Lea más: Meta despide empleados por secuestrar perfiles y liberarlos a cambio de pagos