¿Sabías que los hackers ya pueden llevar a cabo fraudes usando tu voz? Esto lo hacen con ayuda de la IA, conoce distintas formas de protegerte.
El avance de la Inteligencia Artificial (IA) ha traído consigo innumerables beneficios en diversos campos, desde la medicina hasta el entretenimiento. Sin embargo, también ha abierto la puerta a nuevas formas de realizar distintos fraudes.
De acuerdo con McAfee, la tecnología está impulsando un aumento en las estafas de voz en línea, con Sólo se necesitan tres segundos de audio para clonar la voz de una persona.
La empresa descubrió que una cuarta parte de los adultos que encuestó había experimentado previamente algún tipo de fraude de voz con IA. Uno de cada 10 había sido atacado personalmente y el 15 por ciento dijo que le había sucedido a alguien que conocía.
“El 77 por ciento de las víctimas dijeron que habían perdido dinero como resultado”.
Fraude a través de tu banca móvil, ¿es posible que los hackers secuestren tu app?
La compañía desarrolladora de productos de ciberseguridad añadió que, a pesar de que la voz de cada persona es única, es fácil clonar esta característica.
“El 53 por ciento de los adultos comparte sus datos de voz en línea al menos una vez por semana a través de redes sociales, notas de voz y más. El 49 por ciento lo hace hasta 10 veces por semana”, mencionó.
Gracias a este tipo de archivos, es más fácil para los estafadores acceder a este tipo de huella digital. Además aprovechan la tecnología de IA para clonar voces y luego enviar un mensaje de voz falso o llamar a los contactos de la víctima fingiendo estar en peligro.
El 70 por ciento de las personas que reciben los audios no están seguros de poder identificar la versión clonada de la real, por esto no sorprende que la técnica gane impulso.
El costo de caer en un fraude de voz de IA puede ser significativo. Más de un tercio de las personas que habían perdido dinero dijeron que les había costado más de mil dólares. Mientras el 7 por ciento de las víctimas perdieron entre 5 mil y 15 mil dólares.
Cómo detectar transferencias bancarias falsas y evitar caer en las trampas de los cibercriminales
Si bien cada vez es más difícil diferenciar entre lo que es real y lo que puede ser un deepfake generado por IA , hay un par de medidas que puedes tomar para protegerte.
Cuando se trata de estafas de voz con IA, se debe verificar dos veces que lo que la potencial víctima escucha sea correcto, dice Adrianus Warmenhoven, experto en ciberseguridad de NordVPN.
Si sospecha que está siendo atacado por un ciberdelincuente, también puede verificar en línea para ver si ha habido informes recientes de estafas de voz generadas por IA.
Si se decide responder una llamada de un número desconocido y suena como si un familiar en pánico le estuviera pidiendo dinero, lo mejor es no entrar en pánico.
En lugar de eso, finalizar la llamada e intentar llamar o enviar un mensaje de texto a la persona usando el número que le dio, en lugar del que llamó.
Lo mismo ocurre si se recibe una llamada de un estafador que se hace pasar por un banco. No se debe de creer de inmediato sus afirmaciones.
En lugar de eso, se debe finalizar la llamada y llamar al número que aparece en el sitio web de tu banco o en el reverso de tu tarjeta de débito o crédito.
Es especialmente importante dejar de hablar por teléfono con este tipo de estafadores, porque no necesitan un clip especialmente largo de tu voz para usar IA para clonar cualquier voz, según Warmenhoven.
“Incluso si usted simplemente dice ‘¿Hola? ¿Hay alguien ahí?’ o murmura algo, perderá muchas palabras e inflexiones en su voz y luego [un estafador] podrá clonar su voz”, explicó.