La imagen de de la actriz fue utilizada en un video generado con inteligencia artificial que respondía a dichos antisemitas de Kanye West; los expertos piden regulaciones que controlen los derechos y la privacidad de las personas
5 minutos de lectura'

Las imágenes creadas con inteligencia artificial que circulan en redes sociales no son noticia. Pero sí es noticia cuando la difusión de ciertos contenidos se crea fuera del paraguas de la ética responsable. Esta vez, la actriz estadounidense Scarlett Johansson fue la víctima.
En redes, un video deepfake de Johansson se hizo viral. El contenido mostraba a la actriz con una remera en la que aparecían dibujados una mano con el dedo del medio extendido, la estrella de David y el nombre de Kanye. Según reporta CNN, aunque falso, esto suponía una muestra de apoyo y refuerzo a los últimos dichos y acciones antisemitas de West, el cantante que hace días estaba vendiendo una camiseta con una esvástica en el sitio web de su marca de ropa Yeezy.
En los últimos años, West ha sido embajador de un discurso de odio contra la comunidad judía. De hecho, hace pocos días, en X, escribió: “Soy un nazi”. Además, dijo que iba a normalizar hablar de Hitler de la misma manera que hablar de matar “negros” se ha normalizado. Incluso, en 2022, dijo que “amaba a Hitler”.
El video de la actriz fue creado justamente en respuesta a estas declaraciones. En Instagram, Guy Bar y Ori Bejerano, ambos expertos en inteligencia artificial generativa de origen israelí, confesaron haber usado esta estrategia más rebuscada para atacar al cantante. Hicieron un compilado donde incluyeron a Johansson con otras reconocidas figuras, como Steven Spielberg, Adam Sandler o David Schwimmer, intentando destacar cómo las plataformas digitales pueden ser un escenario para el odio fácilmente.
“Es momento de responder a los dichos antisemitas como los de Kanye West de la manera más fuerte posible”, escribió Bejerano en la publicación. “Debemos exigir a las redes sociales que dejen de dar escenario al antisemitismo y al odio”, concluyó.
En diálogo con Yahoo News, Bar explicó que eligieron un formato de video “discreto”, contrario a las formas agresivas y provocadoras de West. “Queríamos utilizar sus voces, por así decirlo, para decirle a Kanye West que su antisemitismo e incitación a la violencia han cruzado todas las líneas posibles”, confesó.
La publicación no fue bien recibida por Scarlett Johansson, quien fue la única que habló públicamente sobre el tema. En un comunicado, manifestó que, debido a su origen judío, no tolera el antisemitismo ni la incitación a la violencia de ningún tipo. Sin embargo, no dejó pasar por alto el peligro que supone el acceso a la inteligencia artificial.
“El potencial del discurso de odio multiplicado por la IA es una amenaza mucho mayor que cualquier persona que asuma la responsabilidad por ello. Debemos denunciar el mal uso de la IA, sea cual sea su mensaje, o corremos el riesgo de perder el control de la realidad”, escribió en su comunicado. En consecuencia, pidió urgencia en el congreso para que pasen la ley que refiere al uso limitado de la inteligencia artificial.
Desafortunadamente, no es la primera ocasión en que Johansson se ve involucrada en una disputa contra la inteligencia artificial. El pasado mayo, la actriz inició acciones legales contra OpenAI luego de que la empresa presentara una nueva actualización de ChatGPT. Esta nueva versión incluía la posibilidad de interactuar con el chat conversacional mediante la voz, y la que había diseñado OpenAI era casualmente muy similar a la de Johansson.
La regulación, en el centro de la discusión
Ambos hechos instalan de nuevo una discusión fundamental: la necesidad de regulaciones. Antonella Stringhini, abogada especialista en inteligencia artificial, expresó para LA NACION que los deepfakes, además de afectar el derecho a la imagen y el honor de las personas, pueden presentar riesgos en diversos ámbitos, como el electoral, en donde la tecnología se puede usar para difundir información falsa o crear discursos ficticios para influenciar a las personas. También ve un riesgo para el ámbito judicial, donde potencialmente se podrían falsificar pruebas. “Generan daño tanto a nivel individual como colectivo. Es necesario implementar medidas para mitigar su efecto”, dijo.
En esta línea, Lucas Barreiro, abogado especialista en protección de datos personales, detalló para LA NACION que una buena regulación no debe ceñirse simplemente a perseguir a quienes utilizan las herramientas de IA de manera maliciosa, sino que también hay que poner el foco en la transparencia de los modelos, procurando que los desarrolladores documenten qué datos utilizan para entrenarlos y qué salvaguardas o filtros han implementado.
Sin embargo, destacó que, aun con regulaciones estrictas, toda acción es insuficiente si el público no sabe cómo detectar y reaccionar ante los deepfakes. “En este aspecto, la alfabetización mediática es crucial”, manifestó. “Las plataformas masivas deberían propender al entrenamiento de los moderadores de contenido y propiciar la verificación de hechos para identificar deepfakes de manera más efectiva y retirarlos inmediatamente”, continuó.
Barreiro concluyó que, en un hipotético futuro donde no haya regulaciones justas, se corre el riesgo de perder algo mucho más importante que la imagen o dignidad de una figura pública: la confianza del público en la información. “A este ritmo tan vertiginoso y con la mayor accesibilidad que hay de la tecnología, cada vez resultará más difícil distinguir entre contenido real y manipulado. Este contexto crea un caldo de cultivo ideal para que actores malintencionados exploten la desinformación como arma política”, finalizó.
Otras noticias de FuturIA
- 1
Retrocesos, peleas, problemas irresueltos: ¿a alguien le importa hoy América del Sur?
- 2
Dólar hoy, dólar blue hoy: a cuánto cotiza este domingo 23 de marzo
- 3
Navarro Montoya, el símbolo de Boca que dirige a su hijo arquero lejos del fútbol de primera: “Hay que desdramatizar”
- 4
La última locura de Stephen Curry que enloqueció a los fanáticos de la NBA