Este verano, una ola de incidentes con deepfakes ha generado alarma en Washington y en el ámbito empresarial de Estados Unidos. Estafadores y hackers, algunos vinculados a grupos asociados con Corea del Norte, han comenzado a utilizar videos y audios generados por inteligencia artificial para hacerse pasar por altos funcionarios de la administración del expresidente Donald Trump, así como por directores ejecutivos y candidatos a empleos, con la intención de acceder a sistemas críticos y secretos empresariales.
Gracias a los avances en IA, crear deepfakes realistas es más fácil que nunca, lo que ha convertido a esta tecnología en una creciente amenaza para la seguridad nacional, la integridad corporativa y la privacidad individual. Por ejemplo, este verano se creó un deepfake del secretario de Estado Marco Rubio para comunicarse con ministros extranjeros y funcionarios estadounidenses, mientras que en mayo alguien suplantó a la jefa de despacho de Trump, Susie Wiles.
Estas falsificaciones digitales pueden manipular conversaciones sobre información sensible o estratégica, y en casos recientes han sido usadas para influir indebidamente en comportamientos, como cuando votantes demócratas en New Hampshire recibieron llamadas falsas con una voz generada por IA que imitaba al presidente Joe Biden instándolos a no votar en primarias.
En el ámbito empresarial, los deepfakes se utilizan para solicitar empleos falsos o suplantar ejecutivos, facilitando el acceso a redes internas para espionaje o instalación de ransomware. Se conoce que miles de norcoreanos han usado estas técnicas para infiltrarse en compañías tecnológicas en Estados Unidos, obteniendo beneficios económicos significativos para sus gobiernos.
Frente a esta problemática, expertos en ciberseguridad y desarrolladores tecnológicos están implementando soluciones basadas en inteligencia artificial para detectar deepfakes, además de promover leyes más estrictas y mejorar la alfabetización digital para ayudar a las personas a identificar medios falsos y evitar ser víctimas de estafas. Sistemas avanzados analizan millones de puntos de datos para detectar irregularidades en voces y videos, marcando el camino para combatir la desinformación con más tecnología de IA.
Según especialistas, aunque el reto es complejo, la lucha contra los deepfakes es posible y necesaria para preservar la confianza en gobiernos, empresas y relaciones personales en la era digital.
Deja una respuesta