Los algoritmos nos están viendo la cara
Estás igual. Todos rogamos por esa respuesta después de participar del Facebook Challenge de los 10 años. Algunos lograron el objetivo del juego, que consistía en mostrar una imagen actual y otra de hace una década en que el paso del tiempo casi no se les notara. Pero aun para esos afortunados -nutridos de antioxidantes naturales, amantes del deporte o de los suplementos de colágeno- las dos fotos escondían una diferencia insalvable, de fondo. Pocas cosas cambiaron tanto en los últimos tiempos como las tecnologías relacionadas con las fotos, y en particular con los retratos. Nosotros podemos estar igual; las fotos, no.
Una foto es un conjunto de datos, y las computadoras se volvieron capaces de entender y manipular esos datos con gran solvencia. Eso permite que los aparatos nos reconozcan, como los nuevos iPhone a sus dueños. Todos los días aparecen nuevos usos para las tecnologías de reconocimiento facial. Hay un piloto en el Reino Unido para determinar con una cámara la edad de los clientes de un supermercado y decidir si pueden comprar alcohol. Otro en China, por el que la cadena de comida KFC sugiere el menú según la cara del interesado. Hay experimentos en curso para colaborar en temas de salud pública y de seguridad.
Paradójicamente, al leerse como datos, las fotos también se volvieron más manipulables, más tramposas que en los noventa, cuando se desató el amor-odio al Photoshop. La empresa de tecnología Nvidia presentó en diciembre los resultados de un experimento por el que creó fotos de personas ficticias que pasan por reales ante humanos y computadoras.
Kate Crawford, directora de AI Now, un think tank que busca regular los algoritmos para el bien común, cree que si un genio le concediera un solo deseo, pediría que se regule el reconocimiento facial. Invitada a Buenos Aires por Argentina 2030 y el Cippec, basó su elección en tres razones: los algoritmos a menudo discriminan por color de piel -como sucedió con software de selección de personal-, la identificación masiva facilita la censura y la persecución estatal (más cuando se suma la interpretación de estados de ánimo a partir de los gestos) y -sobre todo- uno no puede cambiarse la cara.
La manipulación de los retratos también nos pone en apuros. Si una foto no es confiable, ya no puede usarse como evidencia judicial, no garantiza la autenticidad de una noticia y ni siquiera asegura nuestros recuerdos. El fotógrafo Alejandro Chaskielberg trabajó en Otsuchi, Japón, donde documentó la pérdida de miles de fotos luego de un tsunami. En su charla en TEDxRío de la Plata -recién publicada- habla del profundo daño inmaterial que ocasiona perder las fotos que guardan la memoria personal. Si todas las fotos pudieran manipularse, se parecería bastante a un tsunami.
AI Now propone mecanismos de control comunitario en que los ciudadanos opinemos sobre los algoritmos. Algo de eso está pasando. El Challenge de los 10 años despertó polémica entre usuarios que sospecharon un intento no declarado de mejorar herramientas de reconocimiento facial. Esa teoría no fue comprobada. Pero habla de una nueva preocupación pública. Tal vez convenga hacer foco en ella antes de que nos encontremos -frente a la lente- diciendo algoritmo en vez de whisky.