Euro 2020: ¿Qué podrían hacer las empresas de redes sociales con respecto al abuso racista?
La inteligencia artificial, una mejor moderación, las políticas de “nombre real” y el proyecto de ley de daños en línea tienen como objetivo resolver un problema grave
Los penaltis una vez más trajeron consigo la angustia de Inglaterra después de una campaña triunfante en la Eurocopa, ya que Italia ganó en la final de la Eurocopa 2020.
Marcus Rashford, Jadon Sancho y Bukayo Saka, tres jóvenes jugadores afrodescendientes, fallaron los penaltis que hubieran puesto la copa en manos de Inglaterra.
En los momentos que siguieron, una minoría vocal recurrió a las redes sociales para dirigir el abuso racista a los jugadores: se comentaron emojis de mono y plátano en la página de Instagram de Saka, y se vieron múltiples usos de ofensas en Twitter, entre otros insultos.
No es la primera vez que legisladores, activistas y compañías de redes sociales condenaron este comportamiento y propusieron varias soluciones: una ofensiva contra las cuentas anónimas, un mayor uso de inteligencia artificial o técnicas de moderación, así como el controvertido proyecto de ley de daños en línea del gobierno.
Hay muchos aspectos positivos y negativos en cada una de las diversas sugerencias. Pero ninguno llega a la raíz del problema.
La amenaza de las cuentas anónimas es una preocupación común. “Algunas personas todavía ven las redes sociales como un campo de juego libre de consecuencias para el abuso racial, como vimos anoche con los jugadores de Inglaterra”, dice Bill Mitchell, director de políticas de BCS, The Chartered Institute for IT.
“Los expertos en TI creen que estas plataformas deberían pedirle a la gente que verifique su ID real detrás de los identificadores de las cuentas; al mismo tiempo, el anonimato público es importante para grandes grupos de personas, por lo que nadie debería tener que usar su nombre real en línea y cualquier detalle de verificación detrás de la cuenta debe protegerse rigurosamente ".
Sin embargo, es poco probable que esto funcione. Facebook ha aplicado una política de nombre real desde 2015, pero el abuso aún florece en su plataforma, y los metadatos de Twitter pueden identificar a los usuarios con un 96.7% de precisión.
“El racismo es anterior a la opresión, el Internet y los medios de comunicación social, la gente ha estado haciendo y diciendo cosas de opresión durante siglos”, dijo la Dra. Francesca Sobande, coordinadora de estudios de medios digitales y profesora de la Universidad de Cardiff, señaló, añadiendo que ya hay “tanta gente haciendo y diciendo cosas con sus nombres reales".
El secretario de Cultura, Oliver Dowden, planteó nuevamente el proyecto de ley de daños en línea del gobierno como una posible solución. “Comparto la ira por el espantoso abuso racista de nuestros heroicos jugadores”, tuiteó el día después de la final.
“Las empresas de redes sociales deben mejorar su juego para abordarlo y, si no lo hacen, nuestro nuevo proyecto de ley de seguridad en línea las hará rendir cuentas con multas de hasta el 10 por ciento de los ingresos globales”.
La legislación requiere que las plataformas cumplan con un código de conducta supervisado por el regulador Ofcom, bloqueando el contenido que es legal pero que podría causar un daño físico o psicológico significativo, y potencialmente exigiendo responsabilidades a los ejecutivos individuales.
Las ramificaciones filosóficas y prácticas de tal ley son amplias. Ha sido criticado como un asalto a la libertad de expresión, aunque los legisladores están dispuestos para una mayor protección. A diferencia de Estados Unidos, donde tienen su sede muchas de estas empresas de medios sociales, el Reino Unido no tiene la misma visión absolutista del discurso que está escrita en la constitución de Estados Unidos.
La ley también ha sido criticado por ser demasiado vaga e “incentiva la eliminación de exceso de celo de contenido”, Adam Hadley, director de la Fundación línea Harms, ha dicho. “Es más probable que los malos actores, como los terroristas, se encuentren en plataformas más pequeñas y sitios web que ellos mismos construyen y controlan, no en las grandes plataformas tecnológicas a las que se dirigen las propuestas del gobierno”, continuó, aunque la veracidad de esa declaración está en debate .
Sin embargo, se observó una eliminación de contenido “excesivamente entusiasta” cuando YouTube cambió a un sistema de gestión de contenido algorítmico mientras los moderadores humanos trabajaban desde casa durante la pandemia, e incluso puede resultar beneficioso.
YouTube eliminó numerosos comentarios a pesar de que no infringían las políticas de la empresa, ya que la empresa dijo que estaba "aceptando un nivel más bajo de precisión para asegurarse de que estábamos eliminando la mayor cantidad posible de contenido infractor".
Este uso de inteligencia artificial es otra solución que se menciona con frecuencia para los comentarios dañinos en las redes sociales, generalmente una proporcionada por las empresas de tecnología que tienen acceso a estos sistemas de aprendizaje automático. Pero esas empresas a menudo se resisten a las llamadas para permitir al público una mejor visión de cómo funcionan esos mismos sistemas.
Estos algoritmos pueden eliminar contenido a una escala mayor y a una velocidad más rápida que las personas, y potencialmente pueden evitar la tortura y el trauma que muchos moderadores humanos tienen que soportar trabajando , a menudo como contratistas, para enormes plataformas tecnológicas.
Eso sin mencionar la velocidad y la escala con la que se publica el contenido en las empresas de redes sociales: se envían alrededor de 6 mil tweets por segundo y se cargan más de 350 millones de fotos en Facebook por día. No es posible que un humano modere todos estos en tiempo real.
Las empresas de redes sociales podrían retrasar el tiempo que transcurre entre el envío de una publicación y su disponibilidad en línea, lo que les da a sus sistemas más tiempo para verificarlos y reducir la probabilidad de errores. Sin embargo, eso interferiría con la naturaleza instantánea de sus productos, así como con sus ganancias, por lo que parece poco probable.
Desafortunadamente, los sistemas automatizados y capacitados también sucumben al sesgo, y las empresas de redes sociales rara vez brindan explicaciones satisfactorias a estos problemas. Durante el reciente bombardeo de Gaza a manos de Israel en mayo de 2021, Facebook, Twitter e Instagram cometieron numerosos errores al tratar de moderar el contenido de la región, que las empresas atribuyeron a errores en sus sistemas automatizados.
Esto incluyó la eliminación o bloqueo de publicaciones de Instagram con hashtags para la Mezquita Al-Aqsa, el tercer sitio más sagrado de la fe islámica, ya que su sistema de moderación consideró erróneamente que el edificio religioso era una organización terrorista, y Twitter restringió temporalmente la cuenta de la escritora palestino-estadounidense, Mariam Barghouti, que informaba sobre el desalojo de palestinos de Sheikh Jarrah.
Los algoritmos en sí mismos, han señalado muchas personas, también se pueden usar para promover el extremismo, a menos que la propia empresa de redes sociales interfiera para disminuirlo. Se ha alegado que Facebook sabía que su plataforma fomentaba la polarización del contenido, pero las propuestas para cambiarlo serían "anti-crecimiento", por lo que la investigación fue archivada.
Tales historias surgen en medio de investigaciones entre la relación de los gigantes de las redes sociales y los gobiernos de derecha, que tienen mucho que ganar políticamente avivando el fuego de las “guerras culturales”, y podrían ser un beneficio para el objetivo del proyecto de ley de daños en línea a ejecutivos específicos.
El audio filtrado de Mark Zuckerberg reveló que él no "cambiaría nuestras políticas o enfoque en nada debido a una amenaza a un pequeño porcentaje de nuestros ingresos", luego de que más de 500 marcas retiraron 4.2 mil millones de dólares en publicidad de Facebook en protesta por su incapacidad para proteger gente de color. Si el mercado libre no puede regular a estas empresas de manera satisfactoria, es posible que los gobiernos lo hagan de una manera más severa de lo que estos gigantes preferirían.
El tuit de Dowden se produjo en medio de acusaciones de Lord Wooley de que el primer ministro Boris Johnson tiene “planes cero” para abordar los impactos del racismo, y la declaración de la secretaria del Interior, Priti Patel, de que los fanáticos tienen derecho a abuchear a los jugadores de fútbol que se arrodillan, y no abordó la crítica de que esos políticos deben hacer más por sí mismos para detener tal abuso racista.
“La razón por la que tenemos tanto abuso racista en las redes sociales no es porque las empresas de redes sociales no están haciendo lo suficiente, es porque tenemos tanto racismo en nuestra sociedad”, dijo Paul Bernal, profesor de Tecnología de la Información, Intelectual de Derecho de Propiedad y Medios en la Facultad de Derecho de la Universidad de East Anglia, tuiteó.
“El verdadero problema viene de arriba. Si nuestros representantes electos fomentan el racismo y el abuso (y los abucheos), entonces, por supuesto, la gente se siente con derecho al abuso. Por el contrario, si hay suficientes racistas para que el voto racista sea importante, tenemos un GRAN problema".