srcset

Lifestyle

Facebook. Una Corte de expertos, ¿la nueva movida de Zuckerberg?

Natalí Schejtman
(0)
1 de julio de 2020  

Internet supo parecer etérea como una nube, pero cada vez se materializa más atomizada en los nombres propios que se reparten sus dividendos y que lidian con las millonarias ventajas -y los serios cuestionamientos- de administrar una buena parte de la conversación global.

Tal es el caso de Facebook, la red social más usada, que cuenta con la atención de un poco menos de un tercio de las personas que habitan este planeta. Y de su fundador, Mark Zuckerberg: él es hoy la rutilante imagen de la compañía en el salón oval de la Casa Blanca, en tensas asistencias al Congreso de Estados Unidos, como receptor de desplantes de empleados irritados o del reciente boicot publicitario de grandes marcas en repudio a la propagación de discursos de odio en la red, entre ellos el de los grupos supremacistas blancos.

Parte de esa personalización y de la renovada importancia de la expertise humana por sobre -o más bien combinada con- las opacas definiciones algorítmicas pueden estar implicadas en la última decisión de autorregulación que tomó Facebook para dar respuesta a algunas críticas. Se trata de un Consejo Asesor de Contenidos, una junta de veinte notables -desde una premio Nobel hasta varios expertos y expertas en Libertad de Expresión, Derechos Humanos, Derecho Internacional y algunos encumbrados editores periodísticos- nombrados para dirimir una de las cuestiones que más compromete su reputación y rol social: la moderación de sus contenidos, la administración de la libertad de expresión en una compañía privada pero masiva y global o, en otras palabras, lo que se puede y no se puede decir en su feed.

La plataforma no se mancha

La discusión existe desde siempre, pero la alarma que vienen provocando la difusión de desinformación, las acusaciones de bloqueos considerados injustos o casos de censura escandalosos -como la de "La chica de napalm" en la que niños y niñas corren desesperados, entre ellos Phan Thi Kim Phúc, sin ropa, huyendo de una bomba de napalm en Vietnam- motivó una serie de controversias que erosionaron la imagen pública de la compañía.

Fuente: Brando - Crédito: Ilustraciones de Kiko

En Argentina, también las denuncias de censura escalaron como causa. En el capítulo dedicado a Facebook de su libro Los dueños de Internet, Natalia Zuazo analiza el devenir de la compañía como gatekeeper (guardián) de las noticias, los sesgos algorítmicos que pueden promover, por ejemplo, racismo, y sus problemas de opacidad. Describe, además, el caso de María Riot, activista por los derechos de las trabajadoras sexuales, que después de que Facebook bloqueara su cuenta debido a una foto que subió (a pesar de que que no se veían pezones, una obsesión de esta red social) se convirtió en la primera persona de Latinoamérica en presentarle una demanda.

Los casos problemáticos se acumulan. Y acompañan grandes huracanes, como el uso de datos de 87 millones de usuarios por parte de Cambridge Analytica o la propagación de campañas violentas.

Pero las denuncias de censura o sobre la política de moderación se transformaron, también, en una estrategia política en sí misma: a principios de 2019, la Casa Blanca liderada por Donald Trump lanzó una herramienta para que las personas contaran las veces que habían sido censuradas o bloqueadas en diversas plataformas. Una acusación de sesgo anticonservador sobre Facebook -amplificada por miembros del partido republicano, grupos religiosos y anti-aborto legal en 2018- motivó una auditoría independiente que arrojó poca evidencia pero algunos cambios: en Estados Unidos, se empezaron a permitir, por ejemplo, imágenes que mostraban seres humanos conectados a maquinaria médica. Sucedía que la imagen de bebés prematuros internados y conectados era recurrente en las publicidades de las campañas antiaborto legal y, cuando aparecía, Facebook las daba de baja por violar sus estándares de la comunidad acerca de contenidos sensacionalistas. Las organizaciones veían en esta acción una muestra de criterios liberales escondidos en sus normas.

Zuckerberg convocó a un grupo de notables para que tomen decisiones frente a cuestiones de moderación de contenidos. ¿Acción de marketing o el inicio de un nuevo modelo que prioriza la intervención humana por sobre los algoritmos?

Dado su tamaño e incidencia, las plataformas están cada vez más involucradas en las discusiones político-partidarias. En otra ocasión, la senadora demócrata Elizabeth Warren pautó una publicidad con contenido falso en Facebook diciendo que Mark Zuckerberg había apoyado públicamente a Trump: lo hizo a modo de protesta contra la decisión de Facebook de no controlar el contenido falso de las publicidades políticas.

Cada uno de estos temas -y muchos otros- suponen una complejidad enorme en términos de libertad de expresión, contenido nocivo y derechos humanos, que impactan en lo que entendemos como esfera pública (pero privada) online. Y, a su vez, demandan una revisión de derechos y responsabilidades corporativas.

Antes de esperar una orden de afuera, Facebook se adelantó con una propuesta de un Consejo que operará de forma independiente -se creó un fideicomiso del cual depende y algunos procedimientos para garantizar su autonomía, si bien es un órgano promovido por la empresa- para dar una opinión vinculante. El reparto es variado y destacado: desde Julie Owono, directora ejecutiva de Internet Sans Frontières, hasta Michael McConnell, profesor y director del Centro de Derecho Constitucional de la Facultad de Derecho de Stanford y Alan Rusbridger, redactor jefe del diario The Guardian por 20 años y actual presidente del Instituto Reuters para el Estudio del Periodismo.

Catalina Botero-Marino, copresidenta del Consejo junto con otros tres miembros, es un buen ejemplo del sofisticado perfil técnico de los miembros: abogada colombiana, ha sido Relatora Especial para la Libertad de Expresión de la Comisión Interamericana de Derechos Humanos de la OEA y es decana de la Universidad de los Andes de Bogotá. "Durante la última década, Facebook se ha encontrado en el centro de debates cada vez más complejos y contenciosos sobre qué tipos de contenido deberían y no deberían permitirse en sus plataformas. Mark Zuckerberg ha reconocido abiertamente que ninguna compañía, incluida Facebook, puede resolver estos problemas por sí sola, y en noviembre de 2018, anunció su compromiso de crear un organismo de supervisión independiente". Botero-Marino pone el acento en que los miembros buscan brindar mayor claridad y transparencia a la forma en que se modera el contenido en línea y garantizar que los usuarios de Facebook e Instagram en todo el mundo comprendan cómo se toman las decisiones sobre sus comunidades.

Todavía hay mucho que conocer de este Consejo y cómo va a actuar en la práctica. Pero ya ha sido un éxito en términos de Relaciones Públicas.
Tarleton Gillespie

En cuanto a la incumbencia del Consejo, agrega que revisará los casos en que los usuarios hayan apelado la decisión de Facebook e Instagram de eliminar su contenido y también en los que Facebook le pida al Consejo revisar una decisión sobre cualquier contenido en la plataforma. Por supuesto, no serán todos los casos: según explican en su web, una vez realizada la apelación, este nuevo órgano sentará los criterios y evaluará los casos que reúnan los requisitos para su revisión y seleccionará los que sean complejos, significativos y relevantes y sobre los que pueda basar políticas futuras. Una vez que el Consejo ratifique o revierta la decisión de Facebook, su decisión será vinculante.

Si bien nadie duda del pedigree de sus miembros, las preguntas sobre su verdadero impacto y sobre la vasta cantidad de limitaciones en cuanto a incumbencia, no se hicieron esperar: ¿Cómo se articulará este órgano con la cada vez más presente discusión sobre regulación externa de las plataformas? ¿Tiene sentido que un organismo así no interceda en otras cuestiones relevantes como las políticas de publicación de la compañía -más allá de "recomendaciones"-, el funcionamiento del algoritmo o asuntos urgentes de privacidad? Y una pregunta que vuelve cada tanto: si bien este Consejo presenta una serie de elementos novedosos respecto de las autorregulaciones tradicionales, como estructura de esta Corte Suprema separada de la compañía, ¿sirve de modo sustancial la autorregulación en el caso de una compañía tan grande y poderosa como Facebook? Mucho de eso está por verse.

En su muy citado artículo "La política de las plataformas", Tarleton Gillespie, investigador principal de Microsoft Research New England y profesor de la Universidad de Cornell, desmenuza las distintas tradiciones de la palabra "plataforma" y analiza la operación discursiva gracias a la cual las grandes compañías tecnológicas encontraron la forma de facilitar la circulación de discursos ajenos pero sin tener demasiada responsabilidad por lo que dicen. De ahí sus reiteradas demarcaciones respecto de los medios de comunicación.

Su último libro, Custodios de Internet, se dedica precisamente a entender cómo opera la curaduría de contenidos en las plataformas sociales, el mito de la neutralidad y la combinación entre algoritmos y trabajo humano en la moderación, entre otras cosas. ¿Es, en ese sentido, una buena idea contar con esta especie de Corte Suprema? Desde Boston, Gillespie responde: "Todavía hay mucho que conocer de este Consejo y cómo va a actuar en la práctica. Pero ya ha sido un éxito en términos de Relaciones Públicas. Facebook estaba bajo un creciente escrutinio por parte de legisladores y usuarios enojados, y sus declaraciones de 'apertura' y 'neutralidad' -que nunca fueron realmente verdaderos- no eran ya convincentes. Establecer voluntariamente lo que parece un mecanismo de responsabilidad significativo, uno que parece tener la autoridad de una Suprema Corte, ha ayudado a desactivar parte de las críticas. No todas, ciertamente. Incluso si a los usuarios no los moviliza, quizás ayude a los reguladores a no imponer requerimientos más estrictos o a considerar una fragmentación debido a las leyes antimonopólicas".

Moderando a Trump

Fuente: Brando - Crédito: Ilustraciones de Kiko

La agenda de la moderación de las plataformas inició una nueva vida con la presidencia de Donald Trump. No solo porque su campaña de 2016 implicó la producción masiva y la difusión veloz de contenidos falsos creados adrede que influyeron en la confusión informativa, sino porque él mismo expandió los bordes de cómo se expresaba una figura pública.

Como si hubiera estado guionado, hace algunas semanas, casi en simultáneo con el anuncio de los miembros del Consejo, el presidente de Estados Unidos protagonizó un evento de rebote mundial que podría haber significado el debut del equipo de expertos. En medio de las protestas antirracistas en Estados Unidos a raíz del asesinato de George Floyd, Trump publicó un tuit y un posteo de Facebook en el que advertía, en versito, que si empezaba el saqueo empezaría el tiroteo ("When the looting starts, the shooting starts"). Jack Dorsey, CEO de Twitter, tomó la decisión de dejar el tuit visible, pero interpuso una advertencia que decía que violaba las normas de la red social glorificando la violencia y que lo dejaban visible sólo por tratarse de una figura pública.

Unos días antes, Dorsey se había metido con otros tuits del presidente de Estados Unidos que hablaban de fraude en las elecciones: una etiqueta ubicada al pie enviaba a los usuarios a verificar esa información. Trump lo tomó como una provocación. Trató a Twitter como trata a los medios que se le oponen: diciendo -en Twitter- que la compañía no estaba haciendo nada con las mentiras de la "izquierda radical Demócrata" y de China. Y firmó una orden ejecutiva para limitar la protección que gozan las plataformas tecnológicas amparadas por la Sección 230 de la Ley de Decencia en las Comunicaciones, alguna vez llamada "las 26 palabras que crearon Internet" (tal es el título del libro de Jeff Kosseff al respecto). Esa sección protege a los intermediarios en Estados Unidos -en Europa, de hecho, es distinto- de tener responsabilidades por lo que los usuarios postean ahí.

Creo que Trump y su equipo querían hacer retroceder a Twitter, y más importante aún, advertirle a Facebook de que no hiciera lo mismo.
Tarleton Gillespie

Mientras que después del avance de Trump, Dorsey redobló la apuesta, Mark Zuckerberg se detuvo. Ante el mismo posteo sobre los saqueos y los tiroteos, decidió dejarlo pasar sin advertencia alguna para el notorio disgusto de los empleados de la compañía y de algunas organizaciones sociales.

Si bien muchos usuarios le reclamaron al Consejo que se expidiera, no lo hizo por no estar operativo todavía. Aunque en realidad no es tan claro qué habría hecho de estarlo. Mientras que por un lado este nuevo órgano declaró oficialmente que "la forma en que Facebook trata las publicaciones de personajes públicos que puedan infringir sus normas comunitarias entra dentro del alcance del Consejo", en el mismo texto se menciona que en una primera instancia se va a actuar sobre contenido eliminado por Facebook y apelado por los usuarios. Y también por cuestiones remitidas por la compañía. Es de creer que Zuckerberg remitiría al Consejo una decisión así, pero el caso muestra una de las muchas puertas políticas que se abren y la tensión entre regulación externa e interna.

El revuelo interno contra la inacción del número 1 de la compañía frente al mensaje de los tiroteos alimenta una imagen que Zuckerberg -tanto como los líderes de otras plataformas- han tratado de evitar: la del editor de un medio de comunicación.

Para Gillespie, el decreto enviado por Trump ante las advertencias de Twitter no fue tan repentino como parece, sino que fue pensado cuando tomó vuelo la acusación de sesgo anticonservador que motivó la auditoría en 2019. Si bien el investigador ha planteado la necesidad de revisar la Sección 230 para las plataformas sociales -en su último libro hace un análisis incisivo de esta norma-, es escéptico respecto de este súbito interés del Presidente: "Creo que Trump y su equipo querían hacer retroceder a Twitter, y más importante aún, advertirle a Facebook de que no hiciera lo mismo- señala el investigador-. La Sección 230, que simplemente protege a las intermediarias de internet de ser consideradas responsables por lo que los usuarios hacen, significa que pueden tomar decisiones de moderación que crean necesarias sin temor a ser demandados. Esta protección fundamental es importante. Hay, ciertamente, motivos para reexaminar cómo funciona, a la luz de plataformas masivas, globales y algorítmicas como Facebook y Twitter, que ni siquiera existían cuando fue escrita. Su importancia para el discurso público es enorme y tiene sentido examinar qué efectos tiene hoy esta protección legal y si debería ser ajustada con obligaciones adicionales", arranca explicando Gillespie. "Pero la orden ejecutiva de Trump no alienta una reconsideración real, ni tampoco quiere hacerlo. Si realmente quisiera evaluar el panorama de los nuevos medios y los sesgos sutiles que pueden ser endémicos de cómo trabaja ahora la moderación de contenidos, hubiera reconocido que los conservadores no son los únicos que se quejan y hubiera juntado sus preocupaciones con las de, por ejemplo, activistas trans o trabajadoras sexuales. Y, también, admitiría que puede ser más preocupante la amplificación algorítmica que qué es removido y por qué. Podría, además, mencionar cómo estas compañías masivas y rentables están demasiado enfocadas en la recopilación de datos y la publicidad dirigida, y son demasiado acogedoras con el poder político. Pero esto no es lo que Trump tiene en mente".

Covid y confusión

Hay un mundo paralelo al de los barbijos, el aislamiento social y los sanitaristas. Sucede que desde que la Organización Mundial de la Salud popularizó las palabras Covid, curva y testeo, también describió otra patología, la de la infodemia, es decir, la propagación de noticias falsas, maliciosas o destinadas a sembrar pánico sobre la nueva enfermedad. Ante eso, Mark Zuckerberg pudo poner en práctica algunas respuestas que ya había promovido post 2016, tal vez el año más traumático para su compañía, de cara a las nuevas elecciones de 2020. En un posteo de marzo, detalló las distintas medidas contra la infodemia: "Si una pieza de contenido incluye desinformación dañina que podría llevar a un daño físico inminente, bajaremos ese contenido. Hemos bajado cientos de miles de piezas de desinformación relativa al Covid-19, incluyendo teorías conspirativas como que tomar lavandina curaba el virus o que la distancia física no es efectiva para prevenir el contagio de la enfermedad. Para otra desinformación, una vez que es etiquetada como falsa por los verificadores, redujimos su distribución, aplicamos sellos de advertencia con más contexto e identificamos duplicados".

Fuente: Brando - Crédito: Ilustraciones de Kiko

El de la desinformación es un tema que le ha generado unas cuantas preocupaciones. En 2016, la compañía promovió una asociación con organizaciones de verificadores en distintos países del mundo. En Argentina, fue Chequeado -miembro de la Red Internacional de Fact-Checking- el socio local de esta iniciativa a partir de 2018.

Lo cierto es que si bien es fácil coincidir en el daño que hace la información falsa y de mala calidad, el terreno se complica a la hora de identificar una noticia falsa como tal, como sucedió en la controversia entre el sitio Primereando las noticias y Chequeado, en la que un contenido sobre el acuerdo con el FMI del 2018 fue etiquetado por Chequeado como 'falso', lo cual redujo su circulación, y Primereando denunció censura. Y, luego, en la definición de qué hacer con el contenido falso una vez identificado.

En relación a la desinformación difundida, Botero-Marino señala que el alcance del nuevo Consejo Asesor que ella copreside, en términos de fact-checking, "solo puede analizar si un contenido en cuestión debería haber sido verificado o no, o si debería haber sido excluido de la verificación por ser una opinión, discurso político, etcétera. Este tipo de revisión solo puede llevarse al Consejo si el caso es referido por Facebook. Dicho esto, el Consejo no tiene autoridad para revisar algunos tipos de contenido. Esto incluye contenido en plataformas que no sean Facebook o Instagram, como WhatsApp y Messenger, o donde el contenido no es elegible para ser referido al Consejo debido a restricciones legales y de privacidad".

Salvo odio racial y religioso, yo pienso que no se tiene que bajar nada. La gente tiene que tener la capacidad de discernir. No hay que ser paternalistas en eso.
Laura Zommer

Pero más allá del rol del nuevo Consejo, la discusión sobre la difusión de noticias falsas o a qué llamamos desinformación sigue siendo motivo de preguntas complicadas. Para Laura Zommer, directora ejecutiva y periodística de Chequeado, nada debería bajarse: "Salvo odio racial y religioso, yo pienso que no se tiene que bajar nada. La gente tiene que tener la capacidad de discernir. No hay que ser paternalistas en eso. A mí me preocupa muchísimo lo que dijo la OMS, que les pidió a las plataformas y gobiernos que bajen los contenidos desinformantes de la pandemia. Y casi no escuché voces en contra". Pero también cree, que en esta gran discusión sobre circulación de desinformación hay que sumar -y responsabilizar- a otros actores: "Claro que Facebook tiene responsabilidad, pero también la tienen los usuarios de Facebook y los gobiernos. A la vez tiene que ver con falta de educación: ¿cuánta gente sabe lo que es un algoritmo, cuál es la ética del algoritmo? Los sistemas educativos tienen casi que empezar de cero en esta materia. Y eso no es responsabilidad de Facebook."

La aparición de una nueva junta de expertos implica ponerles cara, nombre, un curriculum robusto y un criterio expreso a decisiones muchas veces dilemáticas, pero su utilidad y relevancia está por verse. También, qué lugar ocupan en la articulación con regulaciones estatales locales, presentes y futuras.

Para Martín Becerra, investigador del Conicet y profesor de la UBA y de la UNQ, su irrupción no debería nublar las diferencias nítidas entre una regulación externa y una interna: "Que las plataformas digitales se asesoren por expertos para mejorar sus políticas corporativas es esperable y razonable. Esos órganos, de carácter privado, aconsejan a las compañías y pueden contribuir a que respeten los estándares en materia de derechos humanos y otros derechos. Pero es importante no confundir esas instancias con la necesaria y vacante auditoría pública, civil, democrática, sobre el desempeño de estos gigantescos editores de la conversación y de la información pública que, hasta el momento, no dieron muestras de un cambio significativo en la opacidad de sus decisiones a pesar de la creación de estos espacios".

En definitiva, desde que salieron a la luz, las plataformas representaron un desafío para los bordes que separan lo privado y lo público, una dicotomía que fue ampliando sus sentidos. Ahora, con la creación de esta "Corte Suprema", esta disyuntiva abre un nuevo capítulo.

Nuevas reglas para la publicidad política

La presencia de estas plataformas masivas se vuelve especialmente sensible en un año de elecciones en Estados Unidos. El contenido pagado por los políticos se convirtió en otro de los territorios virtuales en disputa. El año pasado, el CEO de Twitter Jack Dorsey comunicó que la compañía no va a aceptar más publicidad política. Ahora, Mark Zuckerberg acaba de anunciar una herramienta de Facebook que permitirá apagar la publicidad política en la plataforma y en Instagram, en el marco de una campaña para aumentar el registro de votantes. Una vez más, un ángulo para analizar esta decisión radica en la atribución de la responsabilidad por el control de ciertos contenidos: ¿están Facebook, los Estados y los usuarios en igualdad de condiciones -por ejemplo, en términos de información sobre cómo funcionan los algoritmos de las plataformas- a la hora de responsabilizarse por lo que se ve en el feed?

La compañía, además, está en el ojo de la tormenta por el funcionamiento de sus algoritmos en términos de propiciar los contenidos polarizantes. Recientemente, se conoció un reporte interno de 2018 que asumía: "Nuestros algoritmos explotan la atracción del cerebro humano hacia la división". Según la investigación de Wall Street Journal, la empresa desalentó trabajar en esa dirección.

Al lanzar la nueva herramienta para dejar de ver publicidad política, Zuckerberg escribió en USA Today: "Mucha gente quiere que nosotros moderemos y removamos más contenido". Pero agregó: "La responsabilidad solo funciona si podemos ver lo que están diciendo aquellos que buscan nuestro voto".

Este no es, desde ya, el único frente. En las últimas semanas, a más de un mes del anuncio del nuevo Consejo, unas 500 marcas se unieron a organizaciones de derechos civiles en un boicot publicitario que protesta por la falta de acción de la compañía frente a la propagación de discursos de odio, con la consigna Stop Hate For Profit.

El 2016 fue un año parteaguas para la compañía. Este año de elecciones será, sin duda, otro de sus mayores desafíos.

ADEMÁS

MÁS LEÍDAS DE Lifestyle

ENVÍA TU COMENTARIO

Ver legales

Los comentarios publicados son de exclusiva responsabilidad de sus autores y las consecuencias derivadas de ellos pueden ser pasibles de sanciones legales. Aquel usuario que incluya en sus mensajes algún comentario violatorio del reglamento será eliminado e inhabilitado para volver a comentar. Enviar un comentario implica la aceptación del Reglamento.

Para poder comentar tenés que ingresar con tu usuario de LA NACION.

Descargá la aplicación de LA NACION. Es rápida y liviana.