Una reciente actualización de un chatbot de inteligencia artificial permite generar contenido sexualizado sin consentimiento de cualquier persona, reavivando las alarmas sobre la urgencia de marcos legales y tecnológicos que protejan la identidad digital.
Desde estafas millonarias hasta pornografía no consentida, los deepfakes están cruzando líneas cada vez más peligrosas. Un modo «picante» para generar imágenes falsas hiperrealistas usando inteligencia artificial encendió una vez más las alertas sobre el uso malicioso de los deepfakes. Bajo el disfraz de entretenimiento, esta función de un conocido chatbot de IA -perteneciente a la empresa de un aún más conocido empresario- permite crear contenido sexualizado no consentido de cualquier persona. No se trata de un experimento académico ni de una broma en redes sociales. Es una herramienta abierta al público general.
El hecho reavivó una pregunta urgente: ¿qué tan preparados estamos para enfrentar una tecnología que puede vulnerar nuestra identidad, privacidad y dignidad en un solo clic?
Lo que comenzó como una curiosidad tecnológica -y aplicaciones útiles, especialmente en industrias como la cinematográfica- hoy amenaza la seguridad en muchos frentes. Los deepfakes, impulsados por inteligencia artificial, ya no solo imitan rostros o voces: ahora suplantan identidades completas y ponen en jaque la confianza digital. Su impacto crece, se vuelve más accesible, más sofisticado y cada vez más difícil de detectar.
En 2024, un empleado de una firma británica de ingeniería recibió una videollamada aparentemente rutinaria. Al otro lado de la pantalla, el director financiero de la compañía y otros ejecutivos le pedían realizar varias transferencias bancarias. Todo parecía legítimo, pero nada lo era. Eran deepfakes. Las voces, los rostros, incluso los gestos: todo había sido recreado con IA. El engaño fue tan convincente que el empleado autorizó el envío de casi USD $26 millones a diversas cuentas bancarias.
Este caso marcó un antes y un después en la discusión sobre los riesgos reales de esta tecnología. Videos hiperrealistas, voces clonadas y rostros que dicen lo que nunca dijeron: los deepfakes están cambiando la forma en que percibimos la realidad y minando la confianza en los entornos digitales.
“El deepfake es una forma avanzada de spoofing, una técnica que busca engañar a los sistemas de verificación mediante la falsificación de rostros y voces”, explica Tomás Castañeda, director de Product Development en Sovos. “Hoy, la inteligencia artificial permite alterar una identidad en tiempo real, haciendo difícil detectar el fraude”, añade.
Una frontera cada vez más borrosa
A medida que el contenido generado por IA se vuelve más abundante y sofisticado, aumenta el riesgo de que actores maliciosos lo utilicen para difundir desinformación, cometer fraudes o dañar reputaciones. Hoy, los deepfakes son cada vez más fáciles de crear: se puede generar un video convincente en menos de 25 minutos usando solo una imagen clara.
En una encuesta de Deloitte (2024), el 25,9% de los ejecutivos reveló que sus organizaciones habían sufrido al menos un incidente con deepfakes en áreas financieras o contables. Peor aún: Según Royal Society Publishing, solo el 21,6% de las personas en un estudio logró reconocer correctamente un deepfake.
¿Cómo se están usando los deepfakes de forma ilícita?
• Fraudes financieros y estafas empresariales: se han documentado múltiples intentos de engañar a empleados para autorizar transferencias usando imágenes o voces falsas.
• Manipulación política y electoral: videos adulterados de candidatos o autoridades pueden incidir directamente en la opinión pública.
• Suplantación de identidad y extorsión: videos y audios falsos se utilizan para chantajear, estafar o robar identidades.
• Difamación y daño a la reputación: desde celebridades hasta periodistas, nadie está a salvo de contenidos falsos que buscan destruir su imagen.
• Pornografía no consentida: uno de los usos más dañinos y extendidos, especialmente hacia mujeres, quienes ven sus rostros montados en material explícito sin consentimiento.
¿Cómo identificar un deepfake?
Para identificar estos engaños, Tomás Castañeda recomienda el uso de tecnologías especializadas, debido a que el ojo humano podría ser vulnerable a este tipo de ataques: “Existen elementos que podrían levantar sospechas a los que debemos estar atentos: la iluminación, proporciones del rostro, reflejos en los ojos, colores y sombras inconsistentes, fondos borrosos, desincronización entre voz y movimiento labial o parpadeos antinaturales. Sin embargo, cada vez se vuelve más difícil de detectar”.
Tecnología contra tecnología: la biometría como defensa
Frente a esta amenaza creciente, también hay soluciones tecnológicas. Una de las más efectivas es la verificación de identidad biométrica con prueba de vida (liveness detection). Esta tecnología permite confirmar que la persona está físicamente presente y activamente involucrada en el proceso de verificación, impidiendo el uso de imágenes o videos manipulados.
“La biometría combinada con liveness detection es fundamental para proteger a las organizaciones y personas en un entorno donde la manipulación digital es cada vez más sofisticada. Sin estas capas de seguridad, las empresas se vuelven vulnerables a pérdidas millonarias y a la erosión de la confianza digital”, enfatiza Castañeda.
¿Y las leyes? ¿Qué pueden hacer las personas?
Aunque la tecnología avanza más rápido que las leyes, algunos países ya están dando pasos. En Estados Unidos, por ejemplo, se discute el “Take It Down Act”, que busca frenar la difusión de imágenes íntimas falsas generadas por IA, penalizar a quienes las producen y obligar a las plataformas a eliminarlas rápidamente.
En América Latina la legislación aún es incipiente. En Chile existe un proyecto que modifica el Código Penal para sancionar a quienes generen o difundan imágenes íntimas o sexuales creadas con IA sin consentimiento, o manipulen digitalmente imágenes para insertar a personas en contextos explícitos o humillantes. Pero dado que es todavía un proyecto, el delito no está tipificado.
Mientras se actualizan los marcos legales, la defensa de las personas depende de la educación digital, la denuncia oportuna, recurrir a los recursos legales existentes para solicitar indemnización por daños y perjuicios y del uso de herramientas tecnológicas como la verificación de identidad.
De todas maneras, la defensa no puede ser exclusivamente legal o tecnológica: debe ser complementaria. La cooperación internacional, la presión a las plataformas digitales, la creación de marcos regulatorios claros y una ciudadanía informada que conozca sus derechos serán clave para frenar los abusos antes de que esta tecnología escape por completo de control.
“La única forma de frenar el uso malicioso de los deepfakes es combinando vigilancia tecnológica, regulación efectiva y educación. La identidad digital no puede quedar desprotegida frente a una amenaza que evoluciona cada día”, concluye Tomás Castañeda.