Mundo. – Los ciberdelincuentes están utilizando la inteligencia artificial (IA) para llevar a cabo ataques de ingeniería social cada vez más sofisticados, como la clonación de voces de amigos, familiares o conocidos. Estos ataques se basan en fragmentos de grabaciones obtenidas de redes sociales y, con herramientas como Voice Engine de OpenAI, los atacantes crean mensajes falsos que suenan muy naturales, engañando a las víctimas para obtener información o dinero.
Este tipo de fraudes ha tenido un impacto significativo, costando 2,500 millones de dólares en 2023 en Estados Unidos. En el Reino Unido, una cuarta parte de los adultos han sido víctimas de estas estafas, que pueden replicar una voz con solo tres segundos de audio.
El FBI también ha emitido alertas sobre el aumento de estos fraudes, destacando la capacidad de los atacantes para manipular contenido de audio y video, lo que puede resultar en pérdidas financieras y daño a la reputación.
Para evitar ser víctima, los expertos recomiendan mantener precaución con mensajes inesperados, verificar con una llamada directa a la persona en cuestión y establecer frases seguras entre familiares. Además, sugieren implementar autenticación multifactor para mayor seguridad.