Una estafa de clonación de voz con IA puede copiar tu voz en 3 segundos, y está vaciando cuentas bancarias. Así es como puedes protegerte Según un banco con sede en el Reino Unido, "millones" de personas podrían verse afectadas por esta estafa.
Por Erin Davis
Key Takeaways
- Ahora los criminales pueden clonar la voz de una persona con tan solo tres segundos de audio.
- El banco Starling, con sede en el Reino Unido, dice que está lidiando con cientos de casos.
- La institución financiera está animando a las personas a crear "frases seguras" a prueba de la inteligencia artificial para compartir con sus seres queridos.
Un banco del Reino Unido está advirtiendo al mundo que se cuide de las estafas de clonación de voz con inteligencia artificial (IA). Por medio de un comunicado de prensa el banco informó que está lidiando con cientos de casos y que estas estafas podrían afectar a cualquier persona con una cuenta en redes sociales.
Según nuevos datos de Starling Bank, el 28% de los adultos en el Reino Unido dice haber sido víctima de una estafa de clonación de voz con IA al menos una vez en el último año. Los mismos datos revelan que casi la mitad de los adultos en el Reino Unido (46%) nunca han oído hablar de estas estafas y no son conscientes del peligro.
Relacionado: Inteligencia artificial: entre beneficios y amenazas para la ciberseguridad de las empresas
"Las personas publican regularmente contenido en línea, que incluye grabaciones de su voz, sin imaginar que eso las hace más vulnerables a los estafadores", dijo Lisa Grahame, directora de seguridad de información en Starling Bank, en el comunicado de prensa.
La estafa, impulsada por IA, solo necesita un fragmento de audio (aproximadamente tres segundos) para duplicar de manera convincente los patrones de habla de una persona. Según CNN, considerando que muchos de nosotros publicamos más que eso cada día, esta estafa podría afectar a una gran parte de la población.
Una vez clonada la voz, los criminales realizan llamadas en frío a los seres queridos de las víctimas para solicitar fondos de manera fraudulenta.
En respuesta a esta creciente amenaza, Starling Bank recomienda adoptar un sistema de verificación entre familiares y amigos utilizando una frase segura única que solo compartas con tus seres queridos de forma verbal, no por mensaje de texto ni por correo electrónico.
"Esperamos que a través de campañas como esta, podamos equipar al público con la información que necesitan para mantenerse a salvo", añadió Grahame. "El simple hecho de contar con una frase segura con amigos y familiares de confianza —que nunca se comparta de manera digital— es una forma rápida y sencilla de asegurarte de que puedes verificar quién está al otro lado del teléfono".
Un banco del Reino Unido está advirtiendo al mundo que se cuide de las estafas de clonación de voz con inteligencia artificial (IA). Por medio de un comunicado de prensa el banco informó que está lidiando con cientos de casos y que estas estafas podrían afectar a cualquier persona con una cuenta en redes sociales.
Según nuevos datos de Starling Bank, el 28% de los adultos en el Reino Unido dice haber sido víctima de una estafa de clonación de voz con IA al menos una vez en el último año. Los mismos datos revelan que casi la mitad de los adultos en el Reino Unido (46%) nunca han oído hablar de estas estafas y no son conscientes del peligro.
Relacionado: Inteligencia artificial: entre beneficios y amenazas para la ciberseguridad de las empresas
"Las personas publican regularmente contenido en línea, que incluye grabaciones de su voz, sin imaginar que eso las hace más vulnerables a los estafadores", dijo Lisa Grahame, directora de seguridad de información en Starling Bank, en el comunicado de prensa.
La estafa, impulsada por IA, solo necesita un fragmento de audio (aproximadamente tres segundos) para duplicar de manera convincente los patrones de habla de una persona. Según CNN, considerando que muchos de nosotros publicamos más que eso cada día, esta estafa podría afectar a una gran parte de la población.
Una vez clonada la voz, los criminales realizan llamadas en frío a los seres queridos de las víctimas para solicitar fondos de manera fraudulenta.
En respuesta a esta creciente amenaza, Starling Bank recomienda adoptar un sistema de verificación entre familiares y amigos utilizando una frase segura única que solo compartas con tus seres queridos de forma verbal, no por mensaje de texto ni por correo electrónico.
"Esperamos que a través de campañas como esta, podamos equipar al público con la información que necesitan para mantenerse a salvo", añadió Grahame. "El simple hecho de contar con una frase segura con amigos y familiares de confianza —que nunca se comparta de manera digital— es una forma rápida y sencilla de asegurarte de que puedes verificar quién está al otro lado del teléfono".
Relacionado: Así es como un ejecutivo de Ferrari evitó una estafa con deepfake