Las herramientas modernas de IA permiten clonar una voz para hacerla decir cualquier cosa; qué recomiendan los expertos para minimizar las chances de caer en una estafa virtual
8 minutos de lectura'

El mensaje de voz llegó por WhatsApp. Venía de un contacto de confianza y en el audio ofrecía conseguir dólares a muy buen precio. La voz era inconfundible, aunque sonaba inquieta: insistía en hacer la operación cuanto antes. Tentada por la posibilidad de hacer una diferencia económica, la mujer transfirió una suma importante de dinero. Pero cuando intentó coordinar la entrega del efectivo, dejó de recibir respuestas.
Al comunicarse finalmente con su conocido, descubrió que nunca había enviado esos audios: alguien había hackeado su cuenta y utilizado inteligencia artificial (IA) para imitar su voz.
La denuncia realizada en diciembre de 2025 derivó en una investigación de la Fiscalía 1ra de Quilmes, especializada en delitos de extorsión, estafas y defraudaciones en entornos digitales. Al analizar los audios enviados a la víctima, los investigadores compararon las voces de los mensajes enviados con la del contacto suplantado y concluyeron que el audio de los mensajes había sido creados con IA.
Según se informa en el sitio del Centro de Información Jurídica del Ministerio Público de la provincia de Buenos Aires , los audios “habían sido generados mediante IA, imitando de forma muy precisa el tono y timbre de voz del conocido”. Tras un allanamiento, se logró identificar a la persona que realizó la estafa.
El caso muestra una modalidad de fraude que está creciendo en todo el mundo, al punto de tener nombre propio.
Hoy bastan unos pocos segundos de audio —obtenidos de videos, publicaciones en redes sociales, mensajes de voz o incluso llamadas telefónicas— para que un ciberdelincuente pueda generar una voz sintética capaz de imitar el tono, el timbre y algunas inflexiones de la voz de una persona real. Este tipo de engaño se conoce como vishing, una modalidad de phishing o suplantación de identidad que se realiza mediante llamadas telefónicas o mensajes de voz. Con ese recurso, los estafadores realizan llamadas o envían audios a la víctima, simulando ser un familiar o una persona cercana.
Del vishing a la ingeniería social
En muchos casos, además, los delincuentes utilizan técnicas conocidas como caller ID spoofing, que permiten falsificar el número de teléfono que aparece en la pantalla del celular. De esa manera, la llamada parece provenir del número real de un familiar o de un contacto conocido. Investigaciones de la firma de ciberseguridad Group‑IB señalan que la combinación entre clonación de voz y suplantación de número telefónico es uno de los factores que vuelve a estas estafas especialmente convincentes.
Una vez duplicada la voz y falsificado el número del contacto, el siguiente paso es la ingeniería social: introducir una situación urgente para generar presión emocional y evitar que la víctima verifique la información.
El caso investigado en Quilmes no es un hecho aislado. En los últimos años comenzaron a aparecer episodios similares tanto en la Argentina como en otros países. Un caso resonante fue el del periodista Alejandro Fantino, quien en 2025 manifestó que habían utilizado su imagen y su voz para promocionar falsas plataformas de inversión en redes sociales.
En otros países, las estafas suelen apuntar a familiares directos de la víctima. En un testimonio difundido por YouTube una profesora jubilada de Santiago de Chile relató que recibió una llamada en la que escuchó lo que parecía ser la voz de un familiar, pidiéndole ayuda urgente. Convencida de que se trataba de una situación real, realizó una transferencia antes de descubrir que la voz había sido generada mediante IA.
En Estados Unidos se registraron varios episodios en los que delincuentes clonaron la voz de hijos o nietos para llamar a sus padres o abuelos y pedir dinero urgente, una modalidad conocida como grandparent scam.
En 2024, un hombre de Los Ángeles perdió 25.000 dólares después de recibir una llamada en la que escuchó lo que parecía ser la voz de su hijo pidiéndole ayuda económica urgente porque había atropellado a alguien. Al no poder comunicarse directamente con él, el padre fue presa del pánico y pagó todo lo que le iba pidiendo un supuesto abogado para evitar que su hijo fuera a la cárcel. Más tarde se descubrió que la voz había sido generada con IA. “Era su voz, absolutamente. No hay duda alguna”, indicó el hombre a los medios.
En otro episodio similar ocurrido en Florida, Estados Unidos, en julio de 2025, una mujer pagó 15.000 dólares después de recibir una llamada que imitaba la voz angustiada de su hija, supuestamente involucrada en un accidente. Convencida de que se trataba de una emergencia real (“Cuando escuché su voz, me quebré”, dijo la mujer a la prensa), transfirió el dinero antes de descubrir que todo era un fraude.
También se registraron casos similares en otros países. En la ciudad de Kanpur, India, también en 2025, un hombre transfirió dinero después de recibir una llamada en la que alguien imitaba la voz de un pariente y afirmaba necesitar ayuda urgente por una supuesta emergencia médica de la madre de la víctima, que estaba en otro país. Pero también era una estafa basada en clonación de voz.
Estas estafas no solo apuntan a personas, sino también a empresas. En algunos casos, los delincuentes clonaron la voz de directivos para llamar a áreas financieras y ordenar transferencias urgentes, una modalidad conocida como CEO fraud. La combinación entre voces generadas por IA y la posibilidad de falsificar el número telefónico desde el que se realiza la llamada hace que los engaños resulten especialmente convincentes. En 2024, ciberdelincuentes intentaron engañar a ejecutivos de Ferrari utilizando una voz generada con IA que imitaba al CEO de la compañía, Benedetto Vigna. El intento de fraude fue detectado cuando un directivo pidió al interlocutor responder una pregunta personal que solo el verdadero ejecutivo podía conocer.
Un delito en aumento en la Argentina
En Argentina se registraron 34.468 denuncias por delitos informáticos en 2024, un 21,1% más que el año anterior, según el último informe anual de la Unidad Fiscal Especializada en Ciberdelincuencia (UFECI) del Ministerio Público Fiscal. El fraude en línea concentra más del 60% de los casos, mientras que la suplantación de identidad representa el 13,5%, una categoría en la que suelen encuadrarse las estafas basadas en clonación de voz.
Por su parte, el informe de incidentes de ciberseguridad 2024 del equipo nacional CERT.ar registró 438 incidentes reportados, un 15% más que en 2023.
A nivel global, este tipo de fraude está creciendo a un ritmo imparable. Los intentos de fraude con deepfakes aumentaron más de 2000 % en los últimos tres años, según datos de la empresa de verificación de identidad Sumsub. Al mismo tiempo, el vishing se incrementó más de 400% en 2025, impulsado en gran parte por la clonación de voz mediante IA, de acuerdo con reportes de firmas de ciberseguridad como DeepStrike. En paralelo, casi la mitad de las empresas encuestadas en distintos países reconoce haber enfrentado intentos de fraude mediante audios o videos generados con IA, según un análisis citado por el Parlamento Europeo.
El éxito de estos engaños no depende solo de la tecnología. También juega un papel central la reacción emocional de la víctima: “Estas tácticas violan la confianza del usuario, porque al escuchar una voz conocida se baja la guardia y se reducen las señales de alerta”, explica Mauro Micucci, investigador de seguridad informática de ESET Latinoamérica.
Los delincuentes suelen aprovechar situaciones que generan urgencia o preocupación, lo que reduce la capacidad de la víctima para analizar la situación con calma. “Siempre hay que desconfiar de las llamadas o mensajes donde haya una urgencia. Si piden realizar una acción, como enviar dinero o enviar un código, hay que sospechar”, señala Micucci.
Prevención, un escudo para defenderse
“No hay herramientas aún para identificar en tiempo real si una llamada o mensaje es falso o no, por eso lo más importante es la prevención”, advierte Micucci.
Ante este tipo de fraudes, una de las mejores tácticas recomendadas es implementar un mecanismo simple dentro de las familias: acordar una palabra clave. “Lo ideal es tener una palabra clave que la sepan los integrantes de una familia, como los adultos mayores, que son más vulnerables ante estos ataques”, explica Micucci.
Entonces, si alguien llama en una situación urgente, la persona que recibe la comunicación puede pedir esa palabra previamente acordada. Si el interlocutor no la conoce, es probable que se trate de un intento de estafa.
Otras medidas básicas sugeridas son las siguientes:
- cortar la llamada y volver a comunicarse al número habitual del familiar;
- confirmar la situación con otro miembro de la familia;
- evitar transferencias de dinero cuando hay presión o urgencia.
Durante décadas, la voz fue una señal de confianza, de cercanía y seguridad. Hoy, con la IA capaz de reproducirla con sorprendente fidelidad, esa referencia empieza a desdibujarse. En este nuevo escenario, la verificación analógica vuelve a ser la herramienta más simple y más efectiva: pedir la palabra clave, o un dato que no pueda deducirse de un análisis online; si se argumenta cualquier excusa para no decirla (como por ejemplo “estoy muy nerviosa/o” o “cómo me vas a preguntar eso en esta situación”) cortar la llamada, confirmar por otros medios que el pedido es real y no tomar decisiones bajo presión.






