
Ciberseguridad: el uso de IA en las estafas telefónicas
El mundo está cada vez más interconectado y los avances tecnológicos que prometen mejorar nuestra seguridad parecen a veces que está utilizándose en nuestra contra. La inteligencia artificial (IA), un pilar central de la ciberseguridad moderna, ha demostrado ser una herramienta valiosa para detectar y prevenir ciberataques. Sin embargo, su rápida evolución también ha dado lugar a un nuevo tipo de amenaza: las estafas telefónicas o “vishing” potenciadas por la IA. Estos ataques, cada vez más sofisticados, no solo explotan vulnerabilidades tecnológicas, sino también psicológicas, poniendo en riesgo tanto a empresas como a usuarios individuales.
Una encuesta reciente reveló que la IA ha transformado la naturaleza de los fraudes en línea. El 72% de los encuestados considera que los ataques de phishing han evolucionado gracias al uso de IA, y más del 60% cree que estos ataques tienen ahora un mayor índice de éxito. Esto no es una sorpresa. La inteligencia artificial ha permitido a los ciberdelincuentes crear ataques personalizados que son mucho más difíciles de detectar. Un ejemplo alarmante de esto es la clonación de voz, una técnica en la que la IA puede imitar la voz de una persona de confianza para engañar a la víctima, haciéndole creer que está recibiendo una llamada legítima de un colega o incluso de un familiar.
Las estafas telefónicas no son una novedad, pero el uso de IA para clonación de voz ha añadido una nueva capa de complejidad. Los ciberdelincuentes ya no dependen únicamente de las técnicas tradicionales de manipulación psicológica o de hacer llamadas desde números desconocidos. Ahora, gracias a la IA, pueden crear escenarios más realistas y persuasivos, que hacen que incluso las personas más precavidas bajen la guardia. La IA facilita la creación de diálogos que suenan auténticos y convincentes, lo que aumenta el riesgo de que los usuarios entreguen información sensible, como contraseñas, números de tarjetas bancarias o incluso credenciales corporativas.
Este fenómeno ha sido posible por los avances en la IA generativa y el aprendizaje automático, que permiten analizar grandes volúmenes de datos para encontrar patrones de comportamiento y generar ataques más efectivos. La capacidad de la IA para aprender y adaptarse a nuevos contextos también le ha permitido mejorar la eficacia de estas estafas telefónicas. De hecho, muchos sistemas de IA en uso actualmente pueden identificar a qué tipo de víctima es más probable que se engañe, ajustando el tono de la conversación y los detalles del mensaje para que resulten más creíbles.
Por otro lado, las empresas que han implementado soluciones avanzadas de seguridad cibernética también están viéndose amenazadas por el mismo fenómeno. Como explica la encuesta a la que nos referimos al principio, la IA no solo está ayudando a detectar amenazas, sino que también está siendo utilizada por los atacantes para superar las defensas. Los avances en la autenticación multifactor (MFA) y otras herramientas de seguridad avanzadas pueden proteger a los usuarios contra muchos tipos de fraudes en línea. Sin embargo, cuando los atacantes recurren a la clonación de voz o incluso a videos falsos generados por IA, el sistema tradicional de seguridad se ve completamente sobrepasado.
Esto revela una vulnerabilidad importante en la ciberseguridad actual. La mayoría de las soluciones de seguridad implementadas por empresas y usuarios individuales todavía dependen de métodos de autenticación tradicionales, como contraseñas y PIN, que, aunque útiles, no son suficientes ante el creciente poder de la IA. La adopción de autenticación multifactor es clave para proteger cuentas y sistemas, pero solo el 22% de los usuarios, de acuerdo a datos recientes, las utiliza de forma efectiva. Además, muchos empleados no reciben la formación adecuada para reconocer las amenazas emergentes, como las estafas telefónicas basadas en IA. Esta falta de preparación crea un escenario donde los sistemas de protección cibernética, aunque avanzados, no pueden hacer frente a la rapidez y sofisticación de los ataques.
El reto ahora es doble: por un lado, las empresas deben reforzar sus defensas con sistemas que vayan más allá de las contraseñas y el MFA tradicional. Y, por otro, los individuos deben estar más alertas a las nuevas formas de engaño, entendiendo que las estafas telefónicas no siempre vienen de números desconocidos, sino que pueden ser tan realistas como una llamada de un familiar o colega. La educación en ciberseguridad es crucial en este sentido. Las empresas deben proporcionar capacitación constante a sus empleados para que aprendan a identificar señales de fraude, mientras que los usuarios deben ser conscientes de que, incluso cuando se sienten seguros, los atacantes pueden estar utilizando IA para poner a prueba sus vulnerabilidades.
La inteligencia artificial, en su esencia, es una herramienta poderosa que puede ser utilizada tanto para la defensa como para el ataque. Como sociedad, debemos adaptarnos a este nuevo panorama, implementando medidas proactivas y mejorando nuestra educación en ciberseguridad para no caer en las trampas cada vez más sofisticadas que se nos presentan. La ciberseguridad del futuro no solo dependerá de las tecnologías que implementemos, sino también de nuestra capacidad para mantenernos un paso adelante frente a los atacantes que utilizan la inteligencia artificial para evadir nuestras defensas.
Experto en ciberseguridad y expositor en TEDX