Así es el servicio de censura de las redes sociales en Manila, Filipinas - Cine y Tv - Cultura - ELTIEMPO.COM
Cine y Tv

El ‘Gran Hermano’ de las redes sociales vive en Manila

Así se controla contenido de Facebook desde oficinas ¿Restricción de material perturbador o censura?

Documental ‘The Cleaners’

Los alemanes Hans Block y Moritz Riesewieck, directores del documental ‘The Cleaners’, sobre los perturbadores dilemas de la moderación de contenidos.

Foto:

Cortesía Gebrueder Beetz

Por: Aye Iñigo - La Nación (Argentina) - GDA
15 de septiembre 2018 , 09:17 p.m.

Manila, capital de Filipinas. En una oficina a oscuras, las pantallas iluminan los rostros de un ejército de jóvenes que cada día examinan las peores miserias de la humanidad: cuerpos decapitados con cuchillos de cocina, niños siendo violados por adultos, adolescentes que se ahorcan en vivo y en directo... Las imágenes van irrumpiendo de a una, y en cada cubículo alguien resuelve cuál puede pasar y cuál no.

Estos batallones de muchachos de ojos cansados son el filtro que elimina la barbarie que se vuelca en las redes sociales, los que deciden qué puede verse y qué se prohíbe en la sociedad digital. Eso es lo que muestra ‘The Cleaners’, un documental dirigido por los alemanes Hans Block y Moritz Riesewieck, estrenado en el prestigioso festival de Sundance: los perturbadores dilemas de la moderación de contenidos.

En un mundo concebido por informáticos ‘hipsters’ en la bahía de San Francisco, las cloacas se limpian a diario en unos superpoblados ‘call centers’ de la lejana y barata Manila. “Empezamos a investigar hace mucho tiempo; nos intrigaba saber quién decide lo que se publica o se prohíbe en las redes. Para eso nos pusimos en contacto con científicos, quienes nos dieron la pista de que ese trabajo podía estar siendo realizado por moderadores de contenido en Manila, mediante compañías subcontratadas por Facebook”, cuenta Hans Block.

Siguiendo esa pista, Block y Riesewieck se instalaron durante meses en la capital filipina para tratar de contactar a los trabajadores, pero era muy difícil hablar con ellos porque las compañías les prohíben dar información sobre su trabajo. “Finalmente, pudimos hablar con algunos que ya habían renunciado y con otros que aún trabajan para esas compañías, pero sin mostrar sus rostros. Nuestra responsabilidad era cuidarlos. Para hacer posible el documental tuvimos que trabajar con abogados”, detalla Block.

Estos limpiadores deben decidir cuál es contenido potable y cuál es demasiado sensible como para circular en Facebook. Para eso tienen que mirar a diario 25 mil imágenes y videos que los usuarios de todo el mundo suben a la red social. Entre el material abundan escenas porno, violencia contra menores de edad, decapitaciones, fotos racistas y hasta suicidios. Cada filipino trabaja entre ocho y diez horas diarias, con un salario que oscila entre uno y tres dólares la hora.

Dos formas de moderación

¿Cómo funciona la moderación de contenido en Facebook? Según explica Hans Block, hay dos grandes maneras. La primera es mediante un algoritmo (una máquina) encargado de separar el contenido inapropiado para enviárselo a los filipinos, que hacen una segunda revisión. La otra es que los usuarios de la red social denuncien como inapropiado algún contenido, el cual será dirigido a los filipinos para que lo revisen. La pregunta que surge de inmediato es cuán confiable puede ser este sistema de moderación. Nicole Wong, ex encargada de políticas en Google y Twitter, expone en ‘The Cleaners’ que “es difícil decidir qué contenido es apropiado, sobre todo porque muchos de los que trabajan como moderadores ni siquiera estuvieron en el país donde se sacó la foto, por lo que no tienen un contexto. Por eso es importante entrenarlos para que puedan detectar cuando un contenido es apropiado o no para una determinada cultura”.

Esta falta de preparación se percibe en diversas escenas del documental. Una de ellas muestra a un moderador que cree que está ante una foto de un terrorista de Estado Islámico, cuando en realidad es un soldado estadounidense aterrorizando a un prisionero de Abu Ghraib, en Irak. En otra se ve a un joven moderador filipino que decide eliminar un cuadro paródico (y bastante inocente) de una artista inglesa que muestra desnudo al presidente Donald Trump.

En un mundo concebido por informáticos ‘hipsters’ en la bahía de San Francisco, las cloacas se limpian a diario en unos superpoblados ‘call centers’ de la lejana y barata Manila

Facebook concentra a sus moderadores en Filipinas porque allí es barata la mano de obra. Eso es muy peligroso porque se elimina la diversidad, y es importante tener diferentes perspectivas sobre lo que se debe publicar; si no, es parcial”, reflexiona Block. Y agrega: “Por ejemplo, el 90 % de la población filipina es católica, y muchos de los moderadores sienten que su trabajo consiste en liberar el mundo de los pecados. Su presidente, Rodrigo Duterte, está llevando a cabo una política de ‘limpieza social’ en la cual una persona que vende drogas o comete cualquier otro crimen debe ser eliminada. Todo lo que es malo se debe aniquilar, y esa es la forma de pensar de muchos filipinos”.

En un país como Filipinas, donde la pobreza alcanza casi el 30 % de la población, el trabajo del moderador se presenta como una gran oportunidad para los estudiantes. Este oficio de moderador representa prestigio para varios de los filipinos que lo desempeñan, aunque muchos de ellos no soportan la presión de ver tantas imágenes horribles todos los días. Una de las entrevistadas en ‘The Cleaners’ cuenta que le pidió a su superior dejar de revisar cierto tipo de contenido luego de ver una foto de un hombre violando a una niña de 6 años. La respuesta que recibió fue que debía hacerlo de todas maneras porque había firmado un contrato para eso.

El discurso del odio

Millones de personas alrededor del mundo usan Facebook, Twitter o Instagram para mostrar sus vidas, sus vacaciones o compartir experiencias con familiares y amigos, pero también hay un gran número de usuarios que aprovechan estas plataformas multitudinarias para propagar creencias políticas o religiosas, así como odio de clases, violencia y perversiones.

“No es justo separar el comportamiento humano de la tecnología como si esta última fuera solo una herramienta”, opina en el documental Tristan Harris, exdiseñador de ética en Google. Y añade: “La tecnología toma partido y tiene una meta, que es encontrar cuál contenido va a retener más la atención de los usuarios. El odio es una de ellas. Y aunque le guste o no, Facebook se beneficia con este tipo de contenido”.

No es la primera vez que el término ‘manipulación’ ronda como un fantasma sobre las redes sociales. Sin ir más lejos, el nombre del CEO de Facebook, Mark Zuckerberg, ocupó las primeras planas a comienzos de este año, cuando salió a la luz el escándalo de la empresa Cambridge Analytica, acusada de utilizar datos de 87 millones de usuarios de esta red para influir en el resultado de las elecciones presidenciales de Estados Unidos en el 2016, que dieron a Donald Trump como ganador.

¿Cómo deberían ser las redes sociales en un mundo ideal? Según Block, la manera de evitar la manipulación es que estén en manos públicas: “Habría que crear una especie de Naciones Unidas digital, en la que cada Estado se siente en una mesa a hablar sobre las directrices que deben tener las redes. Se debería descentralizar el poder, separar las responsabilidades y que su peso caiga en muchos hombros diferentes”.

La tecnología toma partido y tiene una meta, que es encontrar cuál contenido va a retener más la atención de los usuarios. El odio es una de ellas. Facebook se beneficia con este tipo de contenido

Aunque la moderación de contenido parece necesaria, existe una delgada línea roja. Por ejemplo, la ONG inglesa Airwars monitorea y evalúa todos los días el daño civil de las acciones militares internacionales en zonas de conflicto como Siria e Irak. Para eso rescatan de las redes sociales los videos de bombardeos y ataques como documentos que podrían probar el daño a civiles. Sin embargo, los cánones de moderación de las mismas redes hacen que los videos sean eliminados apenas se suben, lo cual dificulta la recolección de este tipo de pruebas.

Como explica en ‘The Cleaners’ David Kaye, relator especial de la ONU para la libertad de expresión, “las empresas tienen cada vez más y más poder para decidir qué se queda y qué se va de las redes sociales. Al crearnos un mundo completamente controlado, interfieren con nuestra habilidad para tener pensamiento crítico. No deberíamos sorprendernos si en un futuro, la información a la que llegamos sea cada vez menos provocativa, menos desafiante. Vamos a ser una sociedad muy pobre, con las compañías tomando las decisiones sobre qué es legal y qué no”.

Al respecto, Block reflexiona: “Cuando arranqué el documental pensaba que estaba bien que se eliminara el contenido perturbador. Pero ahora tengo una visión más compleja, porque ese contenido a veces es de mucha ayuda. ¿Tenemos derecho a no ser perturbados solo porque somos una sociedad occidental? Creo que no”.

AYE IÑIGO
LA NACIÓN (Argentina) - GDA
En Twitter: @Ayeinigo

Llegaste al límite de contenidos del mes

Disfruta al máximo el contenido de EL TIEMPO DIGITAL de forma ilimitada. ¡Suscríbete ya!

Si ya eres suscriptor del impreso

actívate

* COP $900 / mes durante los dos primeros meses

Sabemos que te gusta estar siempre informado.

Crea una cuenta y podrás disfrutar de:

  • Acceso a boletines con las mejores noticias de actualidad.
  • Comentar las noticias que te interesan.
  • Guardar tus artículos favoritos.

Crea una cuenta y podrás disfrutar nuestro contenido desde cualquier dispositivo.

CREA UNA CUENTA


¿Ya tienes cuenta? INGRESA