Si usted es una persona con dificultades visuales, navegue el sitio desde aquí

Revelan cómo Facebook modera contenidos sobre violencia, terrorismo y pornografía

El periódico británico The Guardian publicó las reglas secretas que siguen los 4.500 moderadores que intervienen en la red social para tratar de controlar los excesos publicados en 96 idiomas por los casi 2.000 millones de usuarios de la red social más célebre del planeta.

SEGUIR
LA NACION
Lunes 22 de mayo de 2017 • 17:23

PARIS - Nació en 2005 como la mayor promesa del siglo XXI. Un ideal de democracia directa, donde la gente podría comunicarse libremente, sin censura ni control. Hoy, 12 años después, Facebook parece haberse transformado en una pesadilla. Sus responsables parecen incapaces de poner límite a la omnipresencia del sexo, la violencia y la propaganda del terrorismo.

Reino aparte, delimitado por una frontera intangible que no se basa en la ley común ni en los sistemas judiciales normales, dominando el planeta y extendiendo su espacio sin control a los cuatro rincones del globo, Facebook representa un sistema jurídico en sí mismo. En ese espacio paralelo, el gigante de las redes sociales erigió sus propias tablas de la ley sin develarlas jamás.

Esa dramática realidad apareció a la luz del día anteayer cuando, al término de una minuciosa investigación, el periódico británico The Guardian publicó las reglas secretas que siguen los 4.500 moderadores que intervienen en la red social para tratar de controlar los excesos publicados en 96 idiomas por los casi 2.000 millones de usuarios de la red social más célebre del planeta.

Una investigación muy completa de The Guardian
Una investigación muy completa de The Guardian. Foto: The Guardian

En la larga lista de "horrores", hay imágenes violentas que van del terrorismo a la pornografía, pasando por el canibalismo. Así como manifestaciones de odio e incluso suicidios en directo.

Para trabajar -relata The Guardian-, los moderadores utilizan fichas con ejemplos precisos, cuyas indicaciones causan perplejidad. Así, si alguien amenaza con asesinar al presidente Donald Trump, la publicación debe ser censurada porque los jefes de Estado son considerados "vulnerables". Sin embargo, están permitidas las amenazas violentas contra el resto de la gente.

En esos textos, la línea de separación entre sátira o humor y contenidos agresivos es extremadamente confusa, y transforman la tarea del moderador en un rompecabezas.

Por ejemplo, pueden autorizar mensajes como "para desnucar a una p. hay que apoyar fuerte en el medio del cuello" o "andá a hacerte c. y morite", porque ninguna de esas expresiones está considerada como una amenaza creíble. Lo mismo ocurre con la frase: "La niña debe portarse bien antes de que papá le rompa la cara" u "Ojalá alguien te mate".

En los documentos revelados por el periódico británico, Facebook estima que "la gente utiliza un lenguaje violento para expresar en línea su frustración" y que "haciéndolo, se sienten seguros". La red social asume así un papel de válvula de escape, que solo es posible gracias a una comunicación virtual e indirecta.

Miles de acusaciones llovieron sobre Facebook recientemente por haber demorado demasiado en suprimir videos de muertes violentas. En abril, el norteamericano Robert Godwin filmó en directo el momento en que mató de un balazo a un abuelo en las calles de Cleveland. Poco después, un internauta difundió el asesinato de su hija de 11 meses en Tailandia, seguido de su propio suicidio.

Pero Facebook no considera que esos contenidos deben ser sistemáticamente censurados. Si bien hay que informar que esos videos pueden "herir la sensibilidad" de los usuarios, también sirven para "crear consciencia sobre las consecuencias de las enfermedades mentales", indica la empresa en su manual interno.

Por eso decidió autorizar la difusión de suicidios en directo. Porque no quiere "censurar o castigar a la gente desesperada". No obstante, la secuencia será suprimida "cuando ya no sea posible ayudar" a la víctima.

"Con excepción de los abusos sexuales", tampoco se retiran automáticamente los videos o fotos que muestran niños siendo maltratados. A menos que esas imágenes estén acompañadas de comentarios sádicos o glorifiquen ese tipo de comportamiento. Explicación: "A fin de que el niño pueda ser identificado y salvado", anota el manual.

La política de Facebook es prácticamente la misma cuando se trata de animales torturados. Para analizar la reacción de la red social, The Guardian publicó la foto de un gato colgado de un gancho y quemado con un soplete en un país asiático. La respuesta fue "dejar pasar", pues se trata de una práctica culinaria y no de un acto de tortura.

Las revelaciones de The Guardian provocaron la indignación de la mayoría de las ONG, que acusan a la red social de ignorar la ley y dictar sus propios códigos éticos.

"Facebook no es árbitro de las normas sociales", declaró Claire Lilley, directora de la National Society for the Prevention of Cruelty to Children (NSPCC). "No son ellos quienes deben decidir qué es mejor para los niños o el público. Si algo debe ser investigado o juzgado y los criminales presentados ante la justicia, no es Facebook quien debe llamar por teléfono. Es la policía quien debe hacerlo", agregó. NSPCC exige que los algoritmos supriman automáticamente los contenidos extremos.

Tras varias polémicas internacionales, las reglas que rigen los desnudos en la red social variaron. Facebook permite "excepciones" cuando se trata de imágenes históricas o de actualidad, sobre todo en el marco de su política a favor de "la guerra contra el terrorismo".

Más sorprendente son otros pasajes del manual: los videos de abortos son autorizados, a condición de que no muestren cuerpos desnudos. Por suerte, las víctimas de los "revenge porn" pueden respirar: tras miles de denuncias, Facebook decidió proscribir esa práctica infame que consiste en difundir fotos o videos íntimos de una tercera personas sin su consentimiento.

Pero la decisión de censurar no es automática. Para que existe revenge porn, la empresa estableció una liste de características: es necesario que la imagen haya sido tomada en la intimidad, que alguien esté desnudo, casi desnudo o sexualmente activo y, por fin, que su consentimiento pueda ser puesto en tela de juicio mediante un comentario revanchista o cruel sobre el contenido, o que un medio haya cubierto el episodio.

Regularmente criticado tanto en Europa como en Estados Unidos por su ausencia de control, Facebook asegura que, además su equipo actual actual, prevé emplear otras 3.000 personas para hacer frente a un volumen de contenidos cada vez más importante.

Según The Guardian, los moderadores de Facebook tienen actualmente "apenas diez segundos para tomar una decisión". Revelan cómo Facebook modera contenidos sobre violencia, terrorismo y pornografía

Te puede interesar