Nuestros sitios
Ver edición digital Suscríbete al NEWSLETTER
Compartir

Así es como los hackers utilizan tu voz para cometer fraudes, cuídate de la IA

MIT SMR México 02 Dic 2024
Así es como los hackers utilizan tu voz para cometer fraudes, cuídate de la IA Los cibercriminales encuentran cada vez más formas de utilizar la IA para robar datos y fondos. (Imagen generada con Inteligencia Artificial/aimanasrn/Adobe Stock)

¿Sabías que los hackers ya pueden llevar a cabo fraudes usando tu voz? Esto lo hacen con ayuda de la IA, conoce distintas formas de protegerte.


El avance de la Inteligencia Artificial (IA) ha traído consigo innumerables beneficios en diversos campos, desde la medicina hasta el entretenimiento. Sin embargo, también ha abierto la puerta a nuevas formas de realizar distintos fraudes.

De acuerdo con McAfee, la tecnología está impulsando un aumento en las estafas de voz en línea, con Sólo se necesitan tres segundos de audio para clonar la voz de una persona.

La empresa descubrió que una cuarta parte de los adultos que encuestó había experimentado previamente algún tipo de fraude de voz con IA. Uno de cada 10 había sido atacado personalmente y el 15 por ciento dijo que le había sucedido a alguien que conocía.

“El 77 por ciento de las víctimas dijeron que habían perdido dinero como resultado”.

Fraude a través de tu banca móvil, ¿es posible que los hackers secuestren tu app?

Así es como los hackers raptan tu voz para acceder a tu bolsillo

La compañía desarrolladora de productos de ciberseguridad añadió que, a pesar de que la voz de cada persona es única, es fácil clonar esta característica.

“El 53 por ciento de los adultos comparte sus datos de voz en línea al menos una vez por semana a través de redes sociales, notas de voz y más. El 49 por ciento lo hace hasta 10 veces por semana”, mencionó.

Gracias a este tipo de archivos, es más fácil para los estafadores acceder a este tipo de huella digital. Además aprovechan la tecnología de IA para clonar voces y luego enviar un mensaje de voz falso o llamar a los contactos de la víctima fingiendo estar en peligro.

El 70 por ciento de las personas que reciben los audios no están seguros de poder identificar la versión clonada de la real, por esto no sorprende que la técnica gane impulso.

El costo de caer en un fraude de voz de IA puede ser significativo. Más de un tercio de las personas que habían perdido dinero dijeron que les había costado más de mil dólares. Mientras el 7 por ciento de las víctimas perdieron entre 5 mil y 15 mil dólares.

Cómo detectar transferencias bancarias falsas y evitar caer en las trampas de los cibercriminales

Dos medidas básicas para protegerte ante este fraude de voz

Si bien cada vez es más difícil diferenciar entre lo que es real y lo que puede ser un deepfake generado por IA , hay un par de medidas que puedes tomar para protegerte.

1. Verifica y comprueba los hechos

Cuando se trata de estafas de voz con IA, se debe verificar dos veces que lo que la potencial víctima escucha sea correcto, dice Adrianus Warmenhoven, experto en ciberseguridad de NordVPN.

Si sospecha que está siendo atacado por un ciberdelincuente, también puede verificar en línea para ver si ha habido informes recientes de estafas de voz generadas por IA.

2. Cuelga la llamada

Si se decide responder una llamada de un número desconocido y suena como si un familiar en pánico le estuviera pidiendo dinero, lo mejor es no entrar en pánico.

En lugar de eso, finalizar la llamada e intentar llamar o enviar un mensaje de texto a la persona usando el número que le dio, en lugar del que llamó.

Lo mismo ocurre si se recibe una llamada de un estafador que se hace pasar por un banco. No se debe de creer de inmediato sus afirmaciones.

En lugar de eso, se debe finalizar la llamada y llamar al número que aparece en el sitio web de tu banco o en el reverso de tu tarjeta de débito o crédito.

Es especialmente importante dejar de hablar por teléfono con este tipo de estafadores, porque no necesitan un clip especialmente largo de tu voz para usar IA para clonar cualquier voz, según Warmenhoven.

“Incluso si usted simplemente dice ‘¿Hola? ¿Hay alguien ahí?’ o murmura algo, perderá muchas palabras e inflexiones en su voz y luego [un estafador] podrá clonar su voz”, explicó.

Síguenos en Google News
Te recomendamos
Foto perfil de MIT SMR México
MIT SMR México La guía en español para los tomadores de decisiones Ofrecemos a nuestros lectores contenido de alto valor con rigor y veracidad sobre innovación y tendencias del mundo empresarial ayudándolos en la toma de decisiones en su vida cotidiana.
Descarga GRATIS nuestro especial
descargable
Descarga AQUÍ el artículo completo Especial Foro MIT 2024. ¡Descárgalo GRATIS!
Suscríbete al Newsletter
¡SUSCRÍBETE!