MonitorExpresso.com
Sin resultados
Ver todos los resutlados
  • Portada
  • Destacadas
  • Reportajes
  • Columnistas
  • México
  • Internacional
  • Michoacán
  • Jalisco
  • Más
    • Ciencia y Tecnología
    • Deportes
      • Educación
      • Espectáculos
      • Finanzas
    • Morelia
    • Mundo Raro
      • Política
      • Salud
    • Seguridad
MonitorExpresso.com
Sin resultados
Ver todos los resutlados
MonitorExpresso.com

Incrementan estafas mediante clonación de voz con inteligencia artificial

por Redacción ME
1 marzo, 2025
en Ciencia y Tecnología
A A
Voice Engine: Herramienta de IA puede clonar una voz

Fotografía

Compartir en FacebookCompartir en Twitter/XCompartir en WhatsApp

Mundo. – Los ciberdelincuentes están utilizando la inteligencia artificial (IA) para llevar a cabo ataques de ingeniería social cada vez más sofisticados, como la clonación de voces de amigos, familiares o conocidos. Estos ataques se basan en fragmentos de grabaciones obtenidas de redes sociales y, con herramientas como Voice Engine de OpenAI, los atacantes crean mensajes falsos que suenan muy naturales, engañando a las víctimas para obtener información o dinero.

Este tipo de fraudes ha tenido un impacto significativo, costando 2,500 millones de dólares en 2023 en Estados Unidos. En el Reino Unido, una cuarta parte de los adultos han sido víctimas de estas estafas, que pueden replicar una voz con solo tres segundos de audio.

También te puede interesar

WhatsApp lanza modo “walkie talkie” para grupos: chats de voz en tiempo real ya disponibles

Alertan sobre nueva estafa con archivos SVG para robar contraseñas: Kaspersky

El FBI también ha emitido alertas sobre el aumento de estos fraudes, destacando la capacidad de los atacantes para manipular contenido de audio y video, lo que puede resultar en pérdidas financieras y daño a la reputación.

Para evitar ser víctima, los expertos recomiendan mantener precaución con mensajes inesperados, verificar con una llamada directa a la persona en cuestión y establecer frases seguras entre familiares. Además, sugieren implementar autenticación multifactor para mayor seguridad.

Etiquetas: Ciencia y TecnologíaIA

Redacción ME

Notas relacionadas

Alerta por estafa con notas de voz generadas por IA: Condusef advierte sobre el “deepfake”
Ciencia y Tecnología

WhatsApp lanza modo “walkie talkie” para grupos: chats de voz en tiempo real ya disponibles

24 mayo, 2025
Rusia califica como “competencia desleal” la prohibición de Kaspersky en Estados Unidos
Ciencia y Tecnología

Alertan sobre nueva estafa con archivos SVG para robar contraseñas: Kaspersky

23 mayo, 2025
Huawei lanza en México su nueva línea de wearables y dispositivos inteligentes
Ciencia y Tecnología

Huawei lanza en México su nueva línea de wearables y dispositivos inteligentes

22 mayo, 2025

 

 

 

  • Portada
  • Directorio
  • Nosotros
  • Políticas

© Monitor Expresso.

Sin resultados
Ver todos los resutlados
  • Portada
  • Destacadas
  • Reportajes
  • Columnistas
  • México
  • Internacional
  • Michoacán
  • Jalisco
  • Más
    • Ciencia y Tecnología
    • Deportes
      • Educación
      • Espectáculos
      • Finanzas
    • Morelia
    • Mundo Raro
      • Política
      • Salud
    • Seguridad

© Monitor Expresso.