Expertos en ciberseguridad advierten sobre los riesgos de compartir fotos personales en plataformas y aplicaciones
3 minutos de lectura'

Desde la ola de inteligencia artificial generativa que se instaló hace pocos años, se popularizaron algunas variantes para el trabajo y el entretenimiento. Una de ellas es la creación imágenes generadas con IA al estilo del Studio Ghibli, utilizando herramientas como “Images for ChatGPT” de OpenAI.
Esta tendencia, además de representar un momento recreativo, conlleva una alta cuota de vulnerabilidad para los usuarios que decidan sumarse. Según expertos en ciberseguridad, compartir información personal, incluidas fotos, requiere de cierta precaución y un análisis previo.

“Debemos entender que al subir nuestras fotos a este tipo de plataformas o herramientas, nosotros no tenemos idea a dónde irán a parar dichas imágenes. Es una realidad que queda almacenada en servidores de terceros, los cuales pueden ser comprometidos por ciberdelincuentes y utilizados para la falsificación de identidades”, explicó María Isabel Manjarrez, investigadora de seguridad del Equipo Global de Investigación y Análisis de Kaspersky.
En este punto, la falsificación de identidades es una de las cuestiones más preocupantes. Las imágenes pueden ser utilizadas para engañar a los sistemas de reconocimiento facial, una tecnología cada vez más usada para acceder a diferentes servicios, sobre todo los financieros. “En la emoción por participar en un ‘trend’, no se preguntan ¿Están almacenando las fotos? ¿Las usan para entrenar algoritmos de IA? ¿Las comparten con terceros? ¿Qué uso darán a mis fotografías?”, añadió la especialista en ciberseguridad.

Los ciberdelincuentes pueden extraer rasgos faciales, características particulares y otros datos biométricos a partir de una simple foto y utilizarlos para suplantación de identidad o para crear perfiles detallados de los usuarios.
Como menciona Manjarrez, existen varios riesgos al compartir fotos personales en aplicaciones de generación de anime u otros filtros con ayuda de la inteligencia artificial:
- Uso indebido de la imagen: algunas aplicaciones pueden conservar las imágenes y usarlas para entrenar modelos de IA sin el consentimiento explícito del usuario.
- Privacidad comprometida: si la aplicación no tiene medidas de seguridad robustas, los datos pueden ser filtrados o vendidos a terceros. Las imágenes pueden ser alteradas con tecnología de IA para crear contenido falso que podría dañar la reputación del usuario.
- Robo de identidad: si una aplicación maliciosa obtiene una imagen de alta calidad, podría ser utilizada para suplantación de identidad en redes sociales o incluso en servicios financieros.
Esta vulnerabilidad puede afectar a cualquier usuario, incluso hasta celebridades, figuras públicas o líderes de instituciones importantes. Estas imágenes fueron utilizadas sin su consentimiento para la creación de deepfakes con contenido falso, publicitario o explícito.
*Por Diego Barrio de Mendoza
Otras noticias de Inteligencia artificial
"Inteligencia Personal". El buscador de Google cambia para adaptar sus respuestas a cada usuario
"Que no aparezca ninguna ley". Qué dijeron Javier Milei y Sturzenegger en Davos sobre el futuro de la inteligencia artificial en la Argentina
Celulares plegables, televisores mundialistas y mucha IA. El futuro de la tecnología en América latina según un ejecutivo top del sector
1Aerolíneas Argentinas venderá pasajes más baratos a quienes quieran venir desde España e Italia
- 2
Fernando Muslera: “No hay que naturalizar lo que pasa en el fútbol argentino porque no es justo”
3¿Adiós a la nafta?: esto cuesta llenar la batería de un auto eléctrico en Argentina en 2026
4Maquiavelo no ha muerto






