Nuestros sitios
Ver edición digital Suscríbete al NEWSLETTER
Compartir

Ni Lucero o Verónica Castro promocionan pastillas; conoce la nueva estafa con IA

MIT SMR México 08 Jul 2024
Ni Lucero o Verónica Castro promocionan pastillas; conoce la nueva estafa con IA Los famosos también pueden ser víctimas de los hackers quienes usan su voz e imagen para intentar defraudar al público. (Imagen generada por Inteligencia Artificial/Lila Patel/Adobe Stock)

Verónica Castro fue clonada por la IA. Sin embargo, ella no es la única famosa atacada por los ciberdelincuentes, Lucero y Arturo Elías Ayub también cayeron en su trampa. Conoce otros casos similares.


De acuerdo con McAfee, la voz de una cuarta parte de los adultos a nivel mundial a sido clonada y el 77 por ciento de estas personas fueron víctimas de estafas de voz con Inteligencia Artificial (IA). Como consecuencia, perdieron dinero.

Para hacer este tipo de fraudes los hackers solo deben de tener acceso a tres segundos de un audio que contenga la voz original del afectado. Este tipo de archivos no son difíciles de hallar ya que más de la mitad de los internautas comparten su voz al menos una vez a la semana en línea o en las redes sociales.

Varios famosos han sido víctimas de estafas similares que incluye tecnología IA. Uno de los casos más recientes fue el de la famosa actriz mexicana, Verónica Castro, sin embargo, su voz no fue la única clonada, su imagen también fue falsificada.

En un clip la supuesta primera actriz mencionó que tuvo problemas de diabetes y que buscando tratamiento de médicos. No obstante, logró vencer la enfermedad con productos naturales. Así lo reportó el periodista de espectáculos Alex Kaffie.

“El video de tres minutos en el que Verónica Castro recomienda un tratamiento contra la diabetes es falso. Fue hecho con ‘delincuencia artificial'”, comentó a través de sus redes sociales.

Cuídate de los fraudes en Airbnb y otras plataformas similares, consejos para no caer en las trampas de los cibercriminales

¿Qué otros famosos han sido clonados?

En junio de 2024 circuló un video en donde Lucero, una famosa cantante mexicana, dijo que era víctima de una grave enfermedad y que había logrado curarse con ayuda de un medicamento.

Al poco tiempo de que comenzó a circular este video, fue la misma estrella de televisión que lanzó un comunicado en el que desmentía el hecho.

“Esta carta es para aclararles que dicho video fue creado con Inteligencia Artificial y no refleja para nada la realidad. Es muy delicado y preocupante que se utilicen estas tecnologías para difundir información falsa”.

En 2023, Arturo Elías Ayub, uno de los tiburones más conocido por los mexicanos denunció públicamente que en redes sociales circulaba un video donde supuestamente afirmaba que las inversiones en petróleo son las más rentables. Sin embargo, todo fue falso, el clip fue creado por IA.

“De por sí ya es una bronca saber que es cierto y que es fake. Porfa antes de tomar decisiones de cualquier tipo asegúrate que es verdad lo que ves”, comentó.

Fraudes con tu e.firma, por esta razón no debes compartir tu rúbrica digital

¿Cómo funciona este tipo de ‘clonación con IA’?

Las estafas no son nada nuevo, pero con la ayuda de la IA se han vuelto más realistas y un arma más poderosa para los delincuentes. Los criminales utilizarán la IA para robarle sus fondos a las personas comunes a través de estos pasos:

  1. Toman vídeos, fotos y otra información de tus perfiles de redes sociales y otros sitios web y utilizar la IA para crear falsificaciones profundas realistas para sus esquemas fraudulentos
  2. Una vez que han creado una falsificación profunda de una voz real de un ser querido, le llamarán a una persona cercana a la víctima para decirle que tiene problemas y necesita dinero
  3. Los criminales juegan con la sensación de urgencia y gravedad de la situación para conseguir que los familiares y amigos actúen rápidamente y sin pensar
  4. Los estafadores pedirán el pago en efectivo, tarjetas de regalo o criptomonedas para intentar que sus estafas sean ilocalizables

Así puedes evitar caer en este tipo de fraudes

Según WSFS Bank, para protegerte de este tipo de amenazas, debes de:

  • Marcar las perfiles de redes sociales como privados y vigilar cuánta información es compartida
  • Tener cuidado al responder a llamadas de números de teléfono desconocidos. Se sabe que los estafadores también falsifican números de teléfono legítimos de empresas y particulares
  • Respirar hondo antes de actuar e intentar ponerse en contacto directamente con su ser querido al que pudieron haber clonado de forma digital
  • Mantener contacto con la policía
  • Comunicarse con las instituciones financieras con las que guarde relación la víctima

La IA puede ser una herramienta útil en muchos casos. Con el conocimiento y la vigilancia adecuados, puede protegerse cuando esta poderosa tecnología es utilizada por los criminales.

Síguenos en Google News
Te recomendamos
Foto perfil de MIT SMR México
MIT SMR México La guía en español para los tomadores de decisiones Ofrecemos a nuestros lectores contenido de alto valor con rigor y veracidad sobre innovación y tendencias del mundo empresarial ayudándolos en la toma de decisiones en su vida cotidiana.
Descarga GRATIS nuestro especial
descargable
Descarga AQUÍ el artículo completo IA ¿Un riesgo para el planeta? ¡Descárgalo GRATIS!
Suscríbete al Newsletter
¡SUSCRÍBETE!