Facebook aumentó la supresión de mensajes de odio y acoso a finales de 2020

SAN FRANCISCO. La red social Facebook presentó este jueves su informe trimestral de cumplimiento de los estándares de comunidad correspondiente a finales de 2020, un período particularmente tenso en EE.UU. y en el que destacaron el notable aumento de la supresión de mensajes de odio y acoso.

Archivo, ABC Color
audima

Entre octubre y diciembre del año pasado, coincidiendo con la campaña electoral, la celebración de los comicios presidenciales y los varios días que tardaron a conocerse los resultados de la votación en EE.UU., Facebook eliminó 6,3 millones de contenidos de acoso y 26,9 millones de mensajes de odio. La primera cifra representa casi el doble de los 3,5 millones de contenidos de acoso eliminados en el trimestre anterior, y la segunda supone un incremento sustancial, al haber pasado de los 22,1 millones a los 26,9.

Aunque la empresa de Menlo Park (California, EE.UU.) no detalló a qué eventos concretos correspondieron las violaciones de sus políticas comunitarias, estas coincidieron en el tiempo con unos meses de extrema tensión política en el país, que derivó en enero en el asalto al Capitolio por parte de cientos de personas, algunas de ellas armadas, que dejó cinco muertos, entre ellos un policía.

Facebook también informó de que en el mismo período suprimió 6,4 millones de mensajes considerados de “odio organizado”, es decir, que estaban vinculados a organizaciones peligrosas que promueven una agenda violenta contra otros grupos.

Este último segmento también experimentó un crecimiento significativo, al pasar de los 4 millones a los 6,4. En el caso de Instagram, propiedad de la compañía, la gran subida se produjo en la eliminación de casos de acoso, que pasó de 2,6 a 5 millones, pero no en la de discursos de odio, que apenas subió de los 6,5 a los 6,6 millones.

Para llevar a cabo sus tareas de moderación y eliminación de contenidos, Facebook se sirve de una mezcla de sistemas automatizados mediante inteligencia artificial y de equipos humanos formados por personas cuyo trabajo es revisar y decidir acerca de los contenidos sospechosos previamente identificados por las máquinas.

Las redes sociales llevan incrementando paulatinamente desde hace años sus esfuerzos de moderación de los contenidos que los usuarios comparten, una práctica que les ha valido numerosas críticas -especialmente por parte de sectores conservadores que les acusan de tener un sesgo progresista- y que ha abierto un intenso debate sobre la libertad de expresión en internet.

El miércoles, en una entrevista en la cadena CNBC, el consejero financiero de Twitter, Ned Segal, aseguró que la empresa jamás permitirá reabrir su cuenta al expresidente de EE.UU. Donald Trump, que fue cerrada permanentemente después del ataque al Capitolio el 6 de enero de este año. Facebook e Instagram también mantienen cerradas las cuentas del exmandatario.

Lo
más leído
del día