Rafa Nadal denunció que suplantaron su voz e imagen con inteligencia artificial
“Se trata de publicidad engañosa”, escribió el extenista manacorí en sus redes
4 minutos de lectura'
Rafael Nadal alertó sobre los riesgos del avance de la inteligencia artificial (IA) al denunciar que comenzaron a circular videos manipulados en los que se suplantan su imagen y su voz para promocionar inversiones con fines fraudulentos.
El ganador de 22 títulos de Grand Slam publicó un escueto mensaje en sus redes sociales precisamente para avisarles a sus seguidores lo que está sucediendo. “Hola a todos. Comparto este mensaje de alerta, algo poco habitual en mis redes, pero necesario. Hemos detectado junto a mi equipo que circulan en algunas plataformas vídeos falsos generados por inteligencia artificial, en los que aparece una figura que imita mi imagen y voz”, comenzó su descargo el balear.
La advertencia se hizo aún más clara al explicar el objetivo detrás de esas falsificaciones: “En estos videos se me atribuyen consejos o propuestas de inversión que no provienen de mí. Se trata de publicidad engañosa. Por favor, tener cuidado: yo no he realizado ni respaldo este tipo de mensajes. Gracias a todos por la atención y el apoyo”.
Hola a todos,
— Rafa Nadal (@RafaelNadal) September 23, 2025
Comparto este mensaje de alerta, algo poco habitual en mis redes, pero necesario.
Hemos detectado junto a mi equipo que circulan en algunas plataformas vídeos falsos generados por inteligencia artificial, en los que aparece una figura que imita mi imagen y voz.
En…
El comunicado fue publicado en su cuenta de X (ex Twitter) tanto en castellano como en inglés, para llegar a toda su base de seguidores y cortar de raíz la posible confusión.
El propio Nadal explicó que, junto a su equipo, detectaron la difusión creciente de este tipo de contenidos. En las últimas semanas, en plataformas como TikTok, comenzaron a proliferar videos con voz en off en la que parece hablar el extenista. Al estar acompañados de imágenes reales suyas y música de fondo, la ilusión es casi perfecta: quien los ve puede llegar a creer que Nadal realmente recomienda esas inversiones.
Pero se trata de montajes fabricados con herramientas de IA que imitan a la perfección su rostro y su voz. El fin es claro: estafar a cientos de miles de personas bajo la credibilidad que genera el nombre de uno de los deportistas más admirados del mundo.
Lo que más sorprendió fue el gesto de Nadal de alzar la voz públicamente. No es común que el ex número uno del mundo utilice sus redes sociales para este tipo de advertencias. Generalmente, sus publicaciones se limitan a cuestiones deportivas, anuncios institucionales o mensajes personales. Esta vez, en cambio, consideró indispensable marcar la diferencia: su nombre estaba siendo utilizado como vehículo de fraude.
De hecho, Nadal se convirtió así en uno de los primeros grandes deportistas en advertir de forma directa a sus seguidores sobre la manipulación de su imagen mediante IA para fines fraudulentos.
El caso del mallorquín no es aislado. En el último año, la lista de celebridades víctimas de este tipo de maniobras se volvió interminable. Taylor Swift, Tom Hanks o Sabrina Carpenter fueron algunos de los nombres internacionales que vieron cómo se difundían montajes con su imagen o voz.
En España, también se registraron episodios similares con Rosalía, el presidente del Real Madrid Florentino Pérez o incluso el propio presidente del Gobierno, Pedro Sánchez.
En casi todos los casos, el patrón se repite: se trata de campañas fraudulentas vinculadas a supuestas plataformas de inversión que prometen retornos veloces y exorbitantes. Una de las más comunes plantea que, con una inversión inicial de 250 euros, los usuarios pueden alcanzar hasta 30.000 euros en pocas semanas. Algo demasiado bueno para ser real.
Los expertos advierten
El problema, según los especialistas en ciberseguridad, no hará más que crecer. Josep Albors, jefe de investigación y concienciación de la empresa ESET, fue categórico en declaraciones a ABC: “No es nuevo, se vieron muchas campañas similares a la que denuncia Rafa Nadal. Antes se usaba solo la imagen del famoso para estafar, pero ahora con el avance de la IA están haciendo vídeos directamente. Por desgracia, todo indica que este tipo de estafas irá creciendo. Hay muchas víctimas que están cayendo y las herramientas de IA cada vez son más fáciles de usar. Además, estamos hablando de campañas muy sencillas de ejecutar. Cualquier tonto con un móvil puede hacerlo”.
Según resume la agencia EFE, el uso de la imagen de figuras públicas con fines fraudulentos no es una novedad. Sin embargo, la perfección alcanzada por las imitaciones de voz y rostro agrega un nivel de riesgo inédito. Nadal lo explicó con claridad en su comunicado: “Comparto este mensaje de alerta, algo poco habitual en mis redes, pero necesario”.
La realidad es que, una vez viralizados, estos vídeos resultan muy difíciles de frenar. El daño ya está hecho: miles de usuarios pueden haberlos visto y confiado en la falsa recomendación del tenista.
Otras noticias de Inteligencia artificial
1Quién era Santiago Fredes, el entrenador de Luján de 35 años que murió tras contraer el síndrome de Guillain-Barré
2Abierto de Palermo: La Natividad-La Dolfina, un finalista que además de talento tiene temple y carácter
3Eben Etzebeth, estrella de la selección de rugby de Sudáfrica, fue suspendido por la World Rugby
4Simulador del sorteo del Mundial 2026: así pueden quedar los grupos








