Nueva modalidad de estafa: usan IA para clonar voces familiares

¡Cuidado! Una nueva modalidad de estafa está ganando fuerza en Colombia. Según una advertencia de la Fiscalía General de la Nación, los ciberdelincuentes están utilizando inteligencia artificial para clonar las voces de familiares, amigos o hasta empleados de instituciones financieras para engañar a las personas.

Haciendo creer a las víctimas que se están comunicando con alguien cercano, los estafadores generan situaciones extremas de urgencia que, bajo presión, llevan a las personas a revelar datos personales, contraseñas bancarias o, en algunos casos, a realizar transacciones de dinero.

La Fiscalía también informó que los casos de este tipo de fraude han aumentado, y destacaron la importancia de seguir algunas recomendaciones para evitar ser víctima de estos engaños.

TE PUEDE INTERESAR: Green Coffee Company impulsa la producción de café con tecnología de SAP

Recomendaciones para evitar ser víctima de esta modalidad de estafa

  • Según especialistas y autoridades, si recibes una llamada de un número desconocido, la regla de oro es: desconfiar. Si escuchas la voz de un familiar o te contactan desde una entidad a través de un número que no reconoces, lo mejor es colgar y comunicarte directamente con la persona u organización utilizando sus canales oficiales.
  • Una de las principales enseñanzas del aumento de fraudes cibernéticos es no compartir datos sensibles. Los expertos recomiendan nunca divulgar contraseñas por teléfono.
  • En los últimos años, la adopción de la IA ha incrementado los casos de fraude debido a la mayor sofisticación de los ataques. Por ello, es fundamental mantenerse informado sobre las nuevas modalidades de estafa.
  • Expertos en ciberseguridad, como la empresa BeyondTrust, sugieren cambiar las contraseñas con regularidad para reducir el riesgo de fraude cibernético.

Foto: Archivo FOLOU

Deja una respuesta