Guerra entre Israel y Hamas aviva dudas sobre la moderación de contenidos en línea

Si trabajaras en una de las grandes redes sociales del mundo (Meta, YouTube, TikTok, etc.) y pudieras decidir ahora mismo qué tipo de contenidos relativos a la guerra entre Israel y el grupo terrorista palestino Hamas debería seguir en línea y qué tipo de material tendría que ser eliminado inmediatamente, ¿qué harías?
¿Permitirías que siguieran en tu plataforma publicaciones que mencionaran la palabra "Hamas" o eliminarías todas las referencias al grupo terrorista, incluyendo aquellas que le critican? ¿Qué política tendrías para los contenidos audiovisuales altamente gráficos publicados, por ejemplo, por las fuerzas armadas israelíes?
Además de etiquetar de forma clara lo visualmente sensible o de eliminar lo que fuera obviamente falso, ¿qué más harías? ¿Cuál sería, para ti, el límite concreto entre mantener registros históricos de momentos de extrema crueldad y la protección de los s que utilizan tu red?
"El número de quejas recibidas por nosotros, en la Junta de Supervisión de Meta, creció un 2,000% desde el inicio de la guerra entre Israel y Hamas", reveló este 16 de noviembre Julie Owono, directora ejecutiva de la ONG Internet Sans Frontières y miembro del consejo global que vigila Facebook, Instagram y WhatsApp.
"Hay s que nos escriben porque piensan que es vital que ellos puedan hablar de Hamas y creen que sus publicaciones han sido restringidas. Otros se ponen en o con nosotros porque piensan que Meta no debe aceptar cualquier referencia a ese grupo", añadió Owono. "Y este no es más que un ejemplo sencillo entre las muchas quejas que estamos analizando".
Owono y otros tres especialistas en operaciones de influencia en línea y moderación de contenidos participaron del "Confianza y seguridad en tiempos de violencia", en el marco de un evento virtual organizado por el Atlantic Council, centro de estudios internacionales con sede en Washington DC, para analizar los desafíos generados por la nueva guerra en el Medio Oriente. Y los límites éticos de la moderación en línea es uno de los más importantes.
"Estamos delante de una difícil dualidad", subrayó Olga Belogolova, profesora asistente del Centro de Estudios de Seguridad de la Universidad de Georgetown. "Por un lado, es necesario documentar la crisis y sus horrores; por otro, tenemos que proteger a las personas. He pensado mucho sobre las fotos de los campos de concentración de la Segunda Guerra Mundial y sobre cómo sólo las vimos después… Estamos buscando un equilibrio delicado".
Y, mientras las redes no llegan a una conclusión, el caos está armado.
En su intervención, Emerson Brooking, investigador sénior del Laboratorio de Investigación Forense Digital (DFRLab) del Atlantic Council, destacó que mucho de lo que se ve en términos de moderación hoy día está hecho de forma automatizada y que graves errores pueden ser consecuencia de esto.
A finales de octubre, Meta tuvo que disculparse públicamente por agregar la palabra "terrorista" a las biografías de algunos s de Instagram que se describen a sí mismos como palestinos. En una breve nota, la empresa dijo que el problema había sido causado por "traducciones inapropiadas". Pero el caso fomentó las acusaciones de que la big tech ha estado suprimiendo contenido de apoyo a los palestinos –lo que tiene, por sí solo, otras consecuencias.
"Los palestinos que usan redes sociales publican contenidos a sabiendas de que, de alguna manera, pueden ser censurados. Así que crece el uso del algospeak [trucos de lenguaje que tienen por objetivo esquivar la moderación automática] y la narrativa del shadow banning [acciones disimuladas de las plataformas de redes sociales para limitar la visibilidad de contenidos] que puede, en muchos casos, no estar ocurriendo", afirmó Brooking.
En una breve intervención, estimulada por preguntas de la audiencia, la periodista Elizabeth Dwoskin, corresponsal de The Washington Post en Silicon Valley y moderadora del evento, quiso saber qué es lo que los especialistas piensan que se podría poner en marcha para contener la más nueva corriente de negacionismo digital: la que sugiere que el ataque realizado por Hamas el 7 de octubre contra un festival de música en Israel no existió.
El grupo se puso de acuerdo en que hay dos buenos precedentes que pueden ser aplicados: las políticas de las redes sociales para frenar el negacionismo de la pandemia y el negacionismo del Holocausto.
Cristina Tardáguila es fundadora de Lupa.
Envíanos al chat de elDetector algo que quieres que verifiquemos: