La confianza, según Facebook

El inglés Nick Clegg es el encargado de contener daños en un momento difícil para la credibilidad de la compañía de Silicon Valley
El inglés Nick Clegg es el encargado de contener daños en un momento difícil para la credibilidad de la compañía de Silicon Valley
Alberto Armendáriz
(0)
27 de octubre de 2019  

Poco importa el título de caballero que le otorgó la reina Isabel II el año pasado por su servicio público. El inglés Nick Clegg, viceprimer ministro británico entre 2010 y 2015, hoy está abocado a resolver los problemas de otro reino... digital: el de Facebook, la mayor red social del planeta, con más de 2400 millones de usuarios.

Tras el durísimo golpe que significó para la imagen de la compañía la revelación del escándalo de Cambridge Analytica -la consultora británica que utilizó datos privados de unos 87 millones de usuarios de Facebook para intentar influir en elecciones como la de 2016 en Estados Unidos que llevó al poder a Donald Trump, y en el referendum del Brexit-, su fundador y CEO, Mark Zuckerberg, contrató a fines del año pasado a Clegg como su nuevo vicepresidente de Asuntos Globales y Comunicaciones. Su misión es contener los daños y darle una lavada de cara a Facebook, mientras la empresa redefine sus normas para resguardar la privacidad de los internautas y cómo se emplea la popular plataforma para publicidad política. No es una tarea fácil, pero Clegg, de 52 años, la asume con entusiasmo.

"Me siento muy afortunado de que después de 20 años en la vida pública tenga la oportunidad de estar involucrado en el que, para mí, es uno de los debates más difíciles e importantes sobre el rol de la tecnología en la sociedad", comenta a LA NACION revista, mientras, de camisa arremangada, se sirve un café en una sala del piso 15 de la moderna sede de Facebook Brasil, en el barrio Itaim Bibi de San Pablo, durante una entrevista a mediados de agosto.

Antes de asumir su puesto en Facebook, Clegg fue miembro del Parlamento Europeo (1999-2004) y luego legislador del Palacio de Westminster (2005-2017). En 2010, además, formó un gobierno de coalición con el conservador David Cameron, y ocupó el cargo de viceprimer ministro hasta 2015
Antes de asumir su puesto en Facebook, Clegg fue miembro del Parlamento Europeo (1999-2004) y luego legislador del Palacio de Westminster (2005-2017). En 2010, además, formó un gobierno de coalición con el conservador David Cameron, y ocupó el cargo de viceprimer ministro hasta 2015

Clegg domina casi perfectamente el español -está casado desde hace 19 años con la abogada española Miriam González Durántez, con quien tiene tres hijos-, y habla también alemán, francés y holandés. Estudió Antropología Social en Cambridge, donde también incursionó en el teatro, y desde entonces es un ávido jugador de tenis. Ateo declarado, es un fervoroso creyente en los ideales de la Unión Europea y un rabioso opositor al Brexit. Entró en la política a través del partido centrista Liberal Demócratas (Lib Dems), con el cual primero fue miembro del Parlamento Europeo (1999-2004) y luego legislador del Palacio de Westminster (2005-2017). En 2010, en el apogeo de su carrera política como líder de los Lib Dems, formó un gobierno de coalición con el conservador David Cameron como premier y él ocupó el cargo de viceprimer ministro hasta 2015, cuando su partido tuvo una desastrosa performance en las elecciones. Dos años más tarde, perdió su banca en la Cámara de los Comunes y se alejó de la política.

"Es importante reconocer cuándo termina un capítulo de tu vida y es tiempo de comenzar otro", dice sobre su experiencia, pero podría aplicarse también a Facebook.

Las sospechas de que Rusia habría utilizado Facebook para interferir en las elecciones estadounidenses de 2016 primero, y las revelaciones del escándalo de Cambridge Analytica más tarde, representaron un antes y un después en la breve historia de la compañía de Silicon Valley. Todos los dedos apuntaron contra Zuckerberg, que en abril del año pasado tuvo que rendir cuentas ante el Congreso de Estados Unidos sobre la responsabilidad de su compañía en ambos casos. Rechazó estar al tanto de las maniobras de Rusia, pero aceptó que su empresa tardó en identificar la acción propagandística de trolls rusos en la plataforma; reconoció el robo de datos por parte de Cambridge Analytica y pidió disculpas por el uso dañino que se les dio para influir en votantes con noticias falsas y desinformación malintencionada en otras elecciones.

Por la filtración de datos por parte de Cambridge Analytica, la compañía fundada por Mark Zuckerberg fue multada en US$ 5000 millones
Por la filtración de datos por parte de Cambridge Analytica, la compañía fundada por Mark Zuckerberg fue multada en US$ 5000 millones

Como resultado de las investigaciones, Facebook acordó con la Comisión Federal de Comercio pagar una multa de US$ 5000 millones por violar sus propias políticas sobre protección de datos, y se comprometió a tomar medidas preventivas para evitar nuevos abusos, como la creación de un comité independiente sobre privacidad y un consejo de vigilancia externo, así como la revisión total de las políticas de privacidad y transparencia de Facebook y de sus aplicaciones Instagram, WhatsApp y Messenger.

"La compañía aprendió unas lecciones muy dolorosas de lo que sucedió en los comicios de Estados Unidos en 2016 y con Cambridge Analytica", confiesa Clegg, quien destaca que en lo que atañe a las elecciones, Facebook ha reformulado completamente la forma en que ahora se publican los avisos políticos pagos (debe haber una persona que se haga responsable por ellos y son archivados digitalmente por siete años), mientras que se colabora con las autoridades electorales de cada país, verificadores de datos y grupos de medios para identificar noticias falsas, desinformación o contenidos polarizadores.

¿Cuáles son los principales riesgos para Facebook en las elecciones en la Argentina?

Hicimos grandes esfuerzos para explicar a los partidos políticos y sus equipos cuáles son nuestras reglas para poner publicidades políticas, y cuáles son los límites para el contenido que aceptamos. Trabajamos con un consorcio de medios [Reverso] para evitar noticias falsas y desinformación.

En los últimos tiempos, hemos visto casos de políticos de derecha, como el de Donald Trump en Estados Unidos, Jair Bolsonaro en Brasil, o Matteo Salvini en Italia, que han sabido capitalizar las redes sociales para ganar elecciones.

En México, Andrés Manuel López Obrador, de izquierda, también usó mucho Facebook de manera orgánica. Lo que me parece es que si eres un político anti establishment, un outsider, no puedes apoyarte en los medios tradicionales, así que buscas otras formas de comunicarse con los votantes. Enfrentamos un período en la política mundial en el que los partidos tradicionales de izquierda y de derecha están colapsando, hay un gran sentimiento de frustración entre los votantes (lo vimos en mi país con el Brexit). Es inevitable y no sorprende que figuras que desafían el status quo, ya sean de izquierda o de derecha, usen herramientas para comunicarse con los votantes que no son mediadas por otras personas. Lógicamente, hay gente a la que no le gusta eso. Pero la esencia de los medios sociales es que le da voz a todo el mundo, y se la da a gente a la que no necesariamente te gusta, o con la que no concuerdas, pero eso es parte de la libertad de expresión. Se trata de buscar un delicado equilibrio. Nosotros no producimos contenido, pero definitivamente tenemos la responsabilidad de establecer límites a lo que se sube a nuestras plataformas.

¿Cuál es su visión sobre lo que quiere hacer de Facebook?

Tuve largas conversaciones con Mark y con Sheryl Sandberg [directora operativa de la empresa desde 2008] y estoy convencido de que realmente quieren cambiar Facebook. Se trata de una compañía muy grande, pero muchas veces se olvida de que es una empresa muy joven, tiene apenas 15 años. Es extraordinario todo lo que ha pasado en 15 años. Facebook creció de una manera en que nadie podía haber anticipado. Al principio existía una suerte de euforia, se pensaba que esta tecnología era la solución para todos los problemas. En retrospectiva, era una utopismo ingenuo. Luego sucedieron varias cosas que nadie había anticipado. Claro, esta tecnología puede ser usada tanto por personas buenas como por personas malas, para fines buenos como para malos. Tuvimos grandes erupciones y polémicas, como la interferencia extranjera en las elecciones estadounidenses de 2016 y todo el escándalo de Cambridge Analytica. Creo que mientras la compañía está madurando, saliendo de sus años adolescentes para su adultez, ha aprendido que, como en todo en la vida, hay que lograr un equilibrio. Los medios sociales no son automáticamente buenos, no dan resultados positivos de manera automática; tenemos que asegurarnos de que la compañía se toma su responsabilidad en serio, buscar minimizar los aspectos negativos. Debemos proteger las elecciones en todo el mundo, incluyendo los comicios en la Argentina en octubre. Tenemos que remover, bloquear o reducir la categorización de contenidos que no son aceptables o deseables. Estamos comprometidos a trabajar junto con las autoridades en temas que son importantes como la seguridad pública o la integridad de las elecciones.

Hoy, cuando uno menciona a Facebook, la primera reacción que se tiene es que son una compañía maligna, que busca controlar la información personal de todo el mundo.

Se dicen esas cosas, pero si realmente fuera así, ¿por qué un tercio de la población del planeta usa Facebook? Muchas veces en el periodismo se repiten acusaciones estereotipadas, pero la verdad es que miles de millones de personas usan nuestros servicios todos los días -a menudo, varias veces por hora-, porque les brindan algo positivo. Les da alegría intercambiar fotos de sus bebés, de sus mascotas; les alegra celebrar sus cumpleaños y los aniversarios de sus abuelos; usan WhatsApp porque les permite comunicarse de manera segura, rápida y privada. Yo soy un optimista en la tecnología. Decía que hay que buscar un equilibrio porque creo que hay que poner pesadas obligaciones sobre los hombros de compañías como Facebook para lidiar con cosas que tal vez no se han tratado bien en el pasado, pero realmente no creo que haya que tirar por la borda todo lo bueno que estos medios sociales han generado.

Pero esa imagen pública negativa está ahí. ¿Cómo se hace para limpiarla?

La imagen de la compañía varía mucho dependiendo del lugar. En México, por ejemplo, no ha cambiado tanto la actitud que la gente tiene hacia Facebook después del escándalo de Cambridge Analytica. En Gran Bretaña, la opinión sigue siendo muy negativa a pesar de que la gente está usando nuestros servicios de manera creciente. Es cierto que la reputación de Facebook sufrió mucho en los últimos años, pero también es cierto que la compañía no se ha quedado quieta, ha tomado medidas significativas para corregir los errores del pasado. Para que te hagas una idea, estamos bloqueando un millón de cuentas falsas por día. La escala de todo esto es enorme, y también lo es nuestra inversión en ese tipo de medidas. Empleamos 30.000 personas para la moderación de contenidos. Desarrollamos sistemas de inteligencia artificial y de aprendizaje automático que hoy nos permiten identificar el 99% del contenido terrorista relacionado con el Estado Islámico antes de que alguien lo denuncie; ese es un cambio dramático en relación a dos años atrás. Cuando yo estaba en el gobierno británico solíamos quejarnos a Facebook y Google porque no estaban haciendo más para identificar y bloquear materiales vinculados a grupos terroristas. Todo eso requiere gigantescas inversiones. En medidas de seguridad y de lo que en la jerga de Silicon Valley se llama cuestiones de integridad, este año habremos invertido casi la misma cantidad que las ganancias que la compañía tuvo cuando salió a cotizar en Bolsa en 2012 (US$ 5000 millones). Eso demuestra que somos sinceros en nuestras intenciones.

¿Y cuál es su rol en todo esto?

Mi papel es modesto. Es tratar de encontrar un punto de equilibrio en el que no pasemos de decir que la tecnología es toda mala o es toda buena. Un punto en el que reconozcamos que compañías como Facebook, junto a reguladores, legisladores, gobiernos y la sociedad civil, todos, tenemos un papel que jugar para minimizar lo negativo y maximizar lo positivo. Es eso en lo que estoy metido.

Aunque su mensaje intenta ser positivo, la transparencia y la buena comunicación no parecen ser la política que rija en la empresa. Pocas semanas atrás, Bloomberg reveló que mensajes de audio del Facebook Messenger eran escuchados por contratistas externos para mejorar sus sistemas de reconocimiento de voz, algo para lo que los usuarios no habían dado su consentimiento explícito, y la compañía dejó inmediatamente de hacerlo. Esto llega luego de que Zuckerberg negó ante el Congreso de Estados Unidos que Rusia haya interferido en las elecciones de 2016, lo que después también resultó ser cierto.

Yo no mezclaría esas dos cosas. En primer lugar, porque hasta hoy nadie sabe con exactitud qué tipo de interferencia externa hubo en las elecciones de 2016, y ciertamente nadie puede decir de manera empírica qué efecto tuvo en los votantes; de hecho, la evidencia académica muestra que las grandes burbujas de información que impulsaron el debate político durante aquellas elecciones fueron tormentas de Twitter de algunos candidatos y los canales de noticias de la tv por cable. Eso no quiere decir que no hayan habido intentos por entorpecer las elecciones, pero las pruebas sugieren que la interferencia rusa fue más aleatoria, para generar un debate divisivo. Pero nadie sabe realmente qué sucedió. Es la razón por la cual hace poco creamos un proyecto con 30 universidades en 11 países para ir más allá de los titulares noticiosos y los eslóganes y entender qué relación hay entre lo que la gente lee en su muro de Facebook y cómo vota. En cuanto a los mensajes de audio de Facebook Messenger, tienes razón al decir que eso muestra un cambio forzado en la forma que opera Facebook, pero en esa instancia en particular, el uso de seres humanos para examinar pequeños fragmentos de audios anónimos es una práctica común en la industria, en compañías como Google o Apple. ¿Por qué? Porque es la única forma que se ha encontrado hasta ahora de testear si los sistemas de inteligencia artificial para reconocer voces funcionan o no. Tal vez la industria no debería haberlo hecho nunca, pero ese no es un problema de comunicación.

Es un problema de transparencia. Si el análisis de esos fragmentos de audio por ingenieros externos es algo esencial para que los sistemas de inteligencia artificial funcionen bien, pero no se informa a los usuarios qué se hace y luego, cuando la prensa lo revela, le ponen un freno, la impresión que se da al público es que lo que estaban haciendo no estaba bien.

Suspendimos esa práctica hasta que resolvamos cómo se puede hacer el testeo de las voces de una manera diferente, porque vimos que había un creciente interés de la prensa y de las autoridades. ¿Deberíamos haber dicho antes que era algo que hacíamos? Tal vez. Mi temor es que cualquier análisis de cualquier dato, de cualquier manera que se haga es visto como una revelación de algo que es moral, legal o éticamente sospechoso. Por supuesto que tenemos que actuar dentro de la ley, del reglamento general de protección datos, y según pautas éticas, pero me preocupa que el nivel de sospecha sobre ciertos asuntos técnicos y complejos sea tan grande que si no somos cuidadosos acabaremos privándonos como sociedad de la habilidad para utilizar los datos de forma sensata y segura. En el caso de los audios de Facebook Messenger, para asegurarnos de que los sistemas de inteligencia artificial cumplan con su función de reconocer voces. Si no hiciésemos la investigación adecuada para que los sistemas de inteligencia artificial funcionen bien, también seríamos criticados.

Como político, usted advertía que si no se mejoraba la forma en que operan los medios sociales en Occidente, caerán en manos de otros países que tienen valores e intereses muy distintos, como China o Rusia.

Especialmente China, seamos muy sinceros.

Y entre los varios aspectos que distinguen a las democracias occidentales del régimen chino están la transparencia, la apertura en la comunicación y la rendición de cuentas. ¿No debería entonces introducir esos valores en Facebook?

Sí, y creo que en Facebook, particularmente en el último par de años, ha habido una tremenda cantidad de transparencia; tenemos informes cada seis meses, y a partir del próximo año serán cada tres meses, con todas las estadísticas, el contenido que sacamos, qué hacemos respecto a los mensajes de odio, al material relacionado con el terrorismo. Los parámetros comunitarios, que son las reglas por las cuales permitimos o no contenidos en nuestra plataforma, son revisados cada dos semanas y publicamos las minutas de las reuniones, señalamos con qué académicos estamos trabajando, y cómo revisamos esos parámetros. En las herramientas mismas hay un nivel de transparencia que no existía seis u ocho meses atrás. Pero seguirá habiendo casos de violación de datos o de errores de datos, no desaparecerán, y tal vez hasta haya más casos mientras reorganizamos la manera en que operamos. Sin embargo, te puedo asegurar que nadie en Facebook es reacio a volverse más transparente; no por una cuestión de nobles principios, sino porque necesitamos ser confiables para tener usuarios. La confianza es muy difícil de conseguir y muy fácil de perder. Sabemos que la desconfianza no se irá de la noche a la mañana, que haremos dos pasos hacia delante y uno hacia atrás, y que cometeremos errores en el camino. Pero el rumbo al que vamos es muy claro: una dirección significativamente mejor a la que íbamos 12 o 24 meses atrás.

ADEMÁS

MÁS leídas ahora

Esta nota se encuentra cerrada a comentarios

Descargá la aplicación de LA NACION. Es rápida y liviana.