El aviso de Rafa Nadal a sus seguidores por sus falsos consejos de inversión
El extenista denuncia que se ha utilizado su voz e imagen para generar vídeos a través de la Inteligencia Artificial
A. Mateos
Martes, 23 de septiembre 2025, 11:46
Rafa Nadal ha emitido este martes un comunicado en el que alerta a sus seguidores de que se ha utilizado su voz e imagen para generar vídeos a través de la Inteligencia Artificial en los que el tenista aparece aconsejando sobre cómo invertir el dinero. «Por favor, tened cuidado: yo no he realizado ni respaldo este tipo de mensajes», afirma el manacorí en sus redes sociales.
Hola a todos,
— Rafa Nadal (@RafaelNadal) September 23, 2025
Comparto este mensaje de alerta, algo poco habitual en mis redes, pero necesario.
Hemos detectado junto a mi equipo que circulan en algunas plataformas vídeos falsos generados por inteligencia artificial, en los que aparece una figura que imita mi imagen y voz.
En…
El extenista explica cómo él y su equipo han «detectado vídeos falsos generados por inteligencia artificial que circulan en algunas plataformas». En dichos materiales aparece un falso Nadal que aconseja o propone diferentes fórmulas de inversión. «No provienen de mí. Se trata de publicidad engañosa», advierte.
Nadal no es la única víctima de este tipo de estafas. Políticos, artistas, famosos... nadie está a salvo de lo conocido como 'deepfakes'. Así denominaron los expertos a este tipo de estafas en 2018. Por aquel entonces, el medio The Wall Street Journal desveló la historia de un director ejecutivo estadounidense que fue estafado con 200.000 dólares tras falsificar su voz.