México. – La Comisión Nacional para la Protección y Defensa de los Usuarios de Servicios Financieros (Condusef) alertó sobre un nuevo método de estafa que utiliza notas de voz generadas por inteligencia artificial (IA). Los ciberdelincuentes se hacen pasar por contactos cercanos, utilizando tecnología “deepfake” para clonar voces y simular emergencias con el fin de obtener dinero de las víctimas.
El fraude comienza cuando los delincuentes envían un mensaje con una nota de voz falsa, en la que suplantan la voz de un familiar o amigo para solicitar ayuda financiera urgente. Sin embargo, este tipo de fraude está basado en la manipulación de voz mediante IA, lo que genera una ilusión de autenticidad.
Para evitar ser víctima de esta estafa, Condusef recomienda verificar la identidad de la persona que envía el mensaje antes de tomar cualquier acción. Si el mensaje proviene de un número desconocido, es mejor no abrirlo ni hacer clic en enlaces o archivos adjuntos, ya que podrían comprometer tus datos personales o bancarios. Además, es importante confirmar la veracidad de cualquier mensaje sospechoso antes de actuar y marcar los números desconocidos como spam para evitar futuras comunicaciones fraudulentas.
El fraude mediante “deepfake” no se limita a notas de voz, ya que también puede involucrar imágenes y videos creados con IA. En un caso reciente en Francia, los delincuentes se hicieron pasar por el actor Brad Pitt y lograron estafar a una mujer por 830,000 euros, cerca de 17 millones de pesos mexicanos.
Por lo tanto, es crucial mantener una actitud cautelosa ante cualquier mensaje no solicitado que llegue a través de plataformas como WhatsApp, para evitar caer en estos fraudes cada vez más sofisticados.