Suscriptor digital

Los peligros del autocompletado: el marketing todopoderoso de Google

Crédito: Fast Company
Mark Wilson
(0)
19 de septiembre de 2018  

No me gusta decir "Hi", más bien soy de los que dicen "Hey" para saludar. Pero cada vez más me encuentro saludando a amigos y colegas con un "Hi" en el correo electrónico. ¿Por qué? Porque lo sugiere Google. En mayo Gmail introdujo un nuevo recurso "Smart Compose" (redacción inteligente) que usa la tecnología de autocompletado para predecir las siguientes palabras. Las acepto con la tecla tab. Las palabras me importan. Al fin de cuentas, soy escritor profesional. Pero entonces gmail hizo que fuera tentadoramente fácil decir "hi" en vez de "hey" y la predicción de Google, aunque equivocada al principio, se volvió autocumplida. No fue hasta dos semanas después de comenzar a usar Smart Compose que advertí que le había entregado una pequeña parte de mi identidad a un algoritmo.

Este tipo de tecnología predictiva está en todas partes: Amazon sugiere productos alineados con su historia de compras. Apple provee un menú especial para las apps de iOS. Spotify arma listas de canciones a base de los gustos musicales de cada usuario. Y Facebook literalmente escoge las historias de amigos que uno debiera ver primero, último o nunca y luego le notifica 365 días al año que es hora de desear "feliz cumpleaños" a alguien.

Pero Google es el portaestandarte cuando se trata de saber lo que queremos. Ya personalizaba avisos cuando Zuckerberg estaba dando los primeros pasos y autocompletaba las búsquedas antes de que alguien intentara explicar la sigla RGPD. En la conferencia de desarrolladores I/O de Google en mayo pasado, realizada en Mountain View, California, donde tiene su sede, el gigante de las búsquedas introdujo un conjunto de recursos nuevos que nos acomodan aún más en piloto automático. El sistema operativo Android Pie, que comenzó a desplegarse en agosto, no solo sugiere la app que uno podría querer abrir a continuación como Teléfono o Runkeeper; también indice cuál podría ser la siguiente acción a realizar, como llamar a un amigo o salir a correr, en base al uso previo.

También está Duplex, un asistente de voz por llegar que, en demostraciones de Google, logró llamar a un restaurante y negociar una mesa con una personalidad similar a la de una persona que sirve como reemplazante del usuario. Las vacilaciones vocales y el uso del "eh ..." y "este ..." fueron tan impactantes que muchos en los medios dijeron que era algo inventado, aunque cuando Fast Company probó el servicio recientemente, pareció funcionar tal como se publicitó.

El debut de Duplex en mayo fue aplaudido por los desarrolladores fanáticos de la compañía. Poco después las implicancias comenzaron a quedar en claro. Este tipo de avances pueden parecer algo para entusiasmarse -o al menos una ayuda benigna- al principio. Pero ¿a dónde conducen? ¿En qué punto el poder de sugestión de Google se vuelve tan fuerte que ya no se trata de lo bien que sus servicios anticipan lo que queremos, sino de cuánto internalizamos sus recomendaciones y pensamos que provienen de nosotros mismos? La mayor parte de la conversación en torno a la inteligencia artificial hoy se centra en lo que sucede cuando los robots piensan como humanos. Quizás debiéramos estar igualmente preocupados respecto de que los humanos piensen como robots.

"Lo paradójico de la era digital es que nos ha llevado a reflexionar acerca de qué es ser humano" dice el experto en ética tecnológica David Folgar, fundador de la iniciativa All Tech is Human, que apunta a alinear mejor la tecnología con nuestros intereses. "Mucho de esta analítica predictiva va al corazón de si tenemos o no libre albedrío: ¿Soy yo que elijo cuál será mi siguiente paso o lo hace Google? ¿Y si puede predecir mi siguiente paso, qué dice eso acerca de mí?

Polgar actualmente está colaborando en investigaciones con la Universidad de Indiana que inquiere acerca de si las comunicaciones de Internet están botificando la conducta humana. En la era de Twitter, chatbots y autocompletar, le preocupa que "nuestras conversaciones online se están volviendo tan diluidas que es difícil determinar si un mensaje ha sido escrito por un humano o un bot". Aún más preocupante, puede ser que ya no nos importe la distinción y nuestro vocabulario y la calidad de nuestras conversaciones se ven afectados como resultado de ello.

Ceder un "hi" por un "hey", por supuesto, es una pérdida menor de individualidad. Mis correos de todos modos no eran tan únicos, según la lingüista Lauren Squires, lingüista. "¿De modo que Google va a crear este nuevo conjunto de frases por nosotros y nunca vamos a salirnos del molde?", pregunta, riendo. "¡Pero de todos modos eso es lo que hacemos! No quiero desvalorizar la creatividad que se vuelca al lenguaje, pero mucho depende de guiones que repetimos". Squires misma usa las respuestas rápidas de Google basadas en IA cuando envía correo desde su teléfono. "No nos dan patrones nuevos; están codificando patrones que ya existen", dice. En cuanto a la sutil diferencia entre "hi" y "hey" piensa que se le da demasiada importancia a los sinónimos.

Demasiado lejos

Silicon Valley recién comienza a reconocer que puede estar llevando el marketing demasiado lejos. El iOS 12 de Apple próximo a aparecer introducirá una serie de herramientas para seguir y limitar su uso de apps e incluso aprovechará la IA para anular algunas notificaciones. El sistema Android Pie de Google ofrece recursos similares y la opción de que su pantalla aparezca de noche de un gris poco atractivo. Hasta Instagram ha reconocido un fenómeno que ha bautizado "desplazamiento zombi" y ha desplegado una nueva interface para ayudar a los usuarios a romper el hábito. Al fin de cuentas, los anunciantes quieren a sus usuarios atentos.

Confiar en que las compañías de tecnologías se autoregulen no servirá de mucho. Google es demasiado consciente de cómo puede afectar la conducta de los usuarios, al menos de acuerdo al video que produjo en 2016, que se conoció en mayo vía The Verge. Narrado por Nick Foster, jefe de diseño de X, la "fábrica" de soluciones tecnológicas avanzadas de Alphabet, el "Archivo Egoísta" es un experimento del pensamiento inspirado en la epigenética, una visión predarwiniana de la genética.

La epigenética propuso que las experiencias de un organismo se acumulan con el paso del tiempo en un "archivo" de conductas incorporadas que se transmite a la descendencia. Imagínelo como ADN hecho a partir de experiencias.

En la era del big data, Foster imagina a Google usando la epigenética digital para provocar la siguiente revolución social. "A medida que la secuencia de los genes lleva a un mapa de la biología humana, los investigadores tienen cada vez más capacidad de apuntar a partes de la secuencia y modificarlas, para lograr un resultado deseado" dice. "Al comenzar a aparecer patrones en la secuencia de la conducta de los [usuarios], también se debe apuntar a ellas. Al archivo se le podría dar un sentido, pasando de un sistema que solo sigue nuestro comportamiento a uno que ofrece orientación hacia un resultado deseado".

Ese "resultado deseado" sería a elección de Google. En una app de compras de almacén, explica Foster, al usuario se lo podría orientar a bananas locales con una notificación roja brillante, porque Google valora la sustentabilidad. Eventualmente, sugiere Foster, los datos multigeneracionales que Google recoge podrían darle una "comprensión al nivel de la especie" para responder a problemas sociales como la depresión, la salud y la ansiedad. Lo que no dice: para que Google resuelva esos problemas uno no sólo tendría que entregar sus datos sino también su voluntad de actuar.

Para probar su propia existencia, Descartes ideó una regla simple: "Pienso, luego existo". ¿Pero si la tecnología ha divorciado el pensamiento de la acción y convertido la conciencia en reflejo, estamos realmente vivos? Yo coincido con Descartes. La respuesta es "no".

Es decir, a menos que Google sugiera otra cosa.

Traducción de Gabriel Zadunaisky

ENVÍA TU COMENTARIO

Ver legales

Los comentarios publicados son de exclusiva responsabilidad de sus autores y las consecuencias derivadas de ellos pueden ser pasibles de sanciones legales. Aquel usuario que incluya en sus mensajes algún comentario violatorio del reglamento será eliminado e inhabilitado para volver a comentar. Enviar un comentario implica la aceptación del Reglamento.

Para poder comentar tenés que ingresar con tu usuario de LA NACION.

Usa gratis la aplicación de LA NACION, ¿Querés descargala?