Facebook revela la prevalencia del discurso de odio por primera vez
El gigante tecnológico también identificó más de 13 millones de piezas de contenido de desnudez infantil y explotación sexual, y más de un millón de elementos de suicidio y autolesión en sus plataformas.
Facebook ha publicado la prevalencia del discurso de odio en su plataforma por primera vez, revelando decenas de millones de casos de contenido dañino en el espacio de solo tres meses.
El Informe de aplicación de las normas comunitarias detallaba 22,1 millones de contenido de incitación al odio en Facebook y 6,5 millones de incitaciones al odio en Instagram entre julio y septiembre de este año.
El gigante tecnológico también identificó más de 13 millones de piezas de contenido de desnudez infantil y explotación sexual, y más de un millón de elementos de suicidio y autolesión en sus plataformas.
En una conferencia con los periodistas antes de la publicación del informe, Arcadiy Kantor de Facebook dijo que la prevalencia del contenido de odio se midió por la cantidad de veces que lo ven los usuarios, en lugar de la frecuencia de las publicaciones.
"Basándonos en esta metodología, estimamos que la prevalencia del discurso de odio desde julio de 2020 hasta septiembre de 2020 fue del 0,10% al 0,11%", dijo.
"En otras palabras, de cada 10,000 visitas de contenido en Facebook, de 10 a 11 incluyen discurso de odio ... Nuestro objetivo es eliminar el discurso de odio cada vez que nos damos cuenta de ello, pero sabemos que aún tenemos avances por hacer".
Facebook también proporcionó información relacionada con sus intentos de tomar medidas enérgicas contra la información errónea relacionada con el coronavirus, así como su enfoque de las teorías de conspiración relacionadas con el Holocausto y QAnon.
Entre marzo y octubre, la compañía eliminó más de 12 millones de piezas de contenido de Facebook e Instagram por contener información errónea que podría conducir a "daños físicos inminentes, como contenido relacionado con medidas preventivas falsas o curas exageradas".
Otros 167 millones de contenidos relacionados con la pandemia de Covid-19 fueron etiquetados con advertencias de información errónea por sus socios de verificación de datos.
La represión del contenido que viola sus políticas ha sido impulsada por mejoras en sus sistemas de inteligencia artificial, dijo Facebook.
Mike Schroepfer, director de tecnología de la empresa, dijo que la inteligencia artificial ahora detecta el 94,7 por ciento del discurso de odio que se elimina, en comparación con solo el 24 por ciento en 2017.
“Un enfoque central de los esfuerzos de inteligencia artificial de Facebook es implementar tecnología de aprendizaje automático de vanguardia para proteger a las personas del contenido dañino. Con miles de millones de personas que utilizan nuestras plataformas, confiamos en la Inteligencia Artificial para escalar nuestro trabajo de revisión de contenido y automatizar las decisiones cuando sea posible”, dijo.
"Nuestro objetivo es detectar el discurso de odio, la información errónea y otras formas de contenido que infrinja las políticas de forma rápida y precisa, para cada forma de contenido, y para cada idioma y comunidad en todo el mundo".