Buscar
Arte e Ideas

Lectura 7:00 min

Taylor Swift y los videos porno deepfakes: consejos prácticos para personas comunes

¿Qué puedes hacer contra un video porno deepfake si no eres Taylor Swift? Consejos urgentes: no compartas el contenido y, si eres víctima, mantén la calma, guarda evidencias, denuncia de inmediato el contenido en las plataformas donde está circulando y pide ayuda a la policía.

Taylor Swift, en concierto el 7 de febrero en Tokio, Japón. Foto: Reuters

Taylor Swift fue víctima de un video falso creado con inteligencia artificial en el que se suplantaba su identidad para recrear escenas porno. Taylor Swift tiene millones de fans con nombre propio y apellido comunitario: Swifties, quienes de inmediato actuaron para defender a la compositora y “enterrar” los falsos videos porno en la red social X (antes Twitter) hasta que fueron eliminados. Pero, ¿qué nos queda a los mortales? ¿Qué podemos hacer si somos víctimas de imágenes o videos deepfakes en redes sociales? Y lo más importante: ¿cómo protegemos a las niñas, niños y adolescentes?

Respuesta rápida: el marco de protección actual es insuficiente para garantizar la defensa inmediata de nuestros derechos a la personalidad, a nuestro honor y a nuestra dignidad en línea. Pero hay esperanza, como explican los especialistas que consulté para este artículo.

Sus consejos urgentes: no compartas el contenido y, si eres víctima, mantén la calma, guarda evidencias, denuncia de inmediato el contenido en las plataformas donde está circulando y con la policía.

La recomendación sobre los menores es preventiva: enséñalos a usar de manera responsable las tecnologías para que eviten publicar su información personal en línea, comunicarse con personas desconocidas o consumir y difundir contenido que lastime a otras personas. También edúcalos a elegir fuentes fidedignas y seguras en internet. Evita publicar fotos, videos y datos personales de personas menores en tus redes (una práctica conocida como sharenting), respeta su privacidad, reduce riesgos presentes y futuros. 

Porno con inteligencia artificial

La tecnología con inteligencia artificial para crear contenido apócrifo se populariza cada vez más rápido y cualquiera con un gramo de pericia y kilos de maldad puede utilizarla para dañar y afectar la dignidad y la reputación de otras personas.

Estos contenidos falsos —o “sintéticos”, por su creación a través de software— son conocidos como deepfakes, una palabra en inglés que puede traducirse como “mentira profunda”, en relación con una falsedad muy realista que confunde sobre su veracidad.

“Si eso le pasa a Taylor Swift, imagínate, no quiero pensar en una venganza en el entorno laboral, que puede destruir la vida de las personas”, dijo Andrea Mendoza Enríquez, profesora-investigadora de la División de Estudios Jurídicos del CIDE y especialista en protección de datos personales.

El riesgo está en todos lados

En octubre de 2023, la Fiscalía de la Ciudad de México detuvo a Diego “N”, un alumno del Instituto Politécnico Nacional que vendía imágenes y videos de sus compañeras manipulados con inteligencia artificial para simular escenas porno. En su tableta digital, almacenaba 166,000 fotografías y 20,000 videos. En una buena parte se identificaba a alumnas del IPN, de entre 17 y 25 años. Diego “N” fue expulsado del instituto.

“Cuando hay un deepfake nada más puedes acudir a una instancia policial cibernética o a las propias políticas de privacidad de los servicios digitales”, dijo Jonathan Mendoza Iserte, secretario de Protección de Datos Personales del Inai, la agencia de privacidad de México, consultado sobre el tema.

La legislación penal permite actuar contra el abusador en los términos de la llamada Ley Olimpia, que significó un cambio de paradigma en la atención jurisdiccional a la violencia de género en la modalidad de difusión de imágenes que vulneran la intimidad sexual de las mujeres. La denuncia en el ministerio público contra Diego “N”, del Poli, y la presión social realizada por la comunidad afectada fueron indispensables para emitir medidas de protección para las víctimas y detener el daño causado por una conducta ilegal.

¿Qué hacer contra un video porno deepfake si no eres Taylor Swift?

1. No compartas el contenido

Un contenido que suplanta la identidad de alguien tiene el objetivo de “desprestigiar” y de hacer daño, consideró Angie Contreras, consultora en tecnología y perspectiva de género. Una pista para reconocerlo es que la gente que se muestra en el contenido “dice cosas que nunca suele decir o se comporta de una manera en que usualmente no lo haría”, dijo Mendoza Enríquez, del CIDE.

Si te encuentras con “un video, una foto, un audio donde se hace burla o se lastima de otra persona” repórtalo de inmediato en la plataforma y, lo más importante, que no lo compartas: “No hay que viralizarlo”, sugirió Contreras.

2. Mantén la calma

No te precipites. “Inhalar y exhalar es muy importante. Yo sé que es muy difícil, pero hay que mantener la calma”, dijo Contreras. “Haz captura de pantalla de todo, capturas completas, graba la pantalla para que se vea en dónde está publicado y guarda el enlace o la URL de la publicación para localizarla”. Servirá para denunciar ante las autoridades.

3. Denuncia en plataforma

La opción más rápida para las víctimas de deepfakes es denunciar el contenido a través de los mecanismos de control de las redes sociales, aunque no siempre funcionan a la velocidad necesaria considerando lo grave del asunto: tu imagen se está utilizando indebidamente para presentarte en situaciones que afectan tus derechos morales. En el caso de Taylor Swift, el video porno deepfake estuvo en línea 17 horas.

4. Denuncia en la fiscalía

La denuncia penal puede ser un proceso agotador que revictimiza a las víctimas, sobre todo a las mujeres, pero todas las especialistas consultadas lo recomiendan: hay que denunciar. El caso de las alumnas del IPN es una muestra de que el mecanismo funciona, sobre todo en las medidas cautelares.

Menor presencia pública

Juan Carlos Zevallos Llanos, manager de Ciberseguridad en IBM Latinoamérica, propone algo que parece imposible en la sociedad del espectáculo que nos invita todo el tiempo a compartir detalles de nuestra vida en internet. Pero tiene sentido: “No seamos tan públicos en redes, porque estamos incrementando la superficie de ataque hacia nosotros. Si pongo fotos, video o voz en redes sociales es más fácil para las personas inescrupulosas que se dedican a esto (dañar a terceros) a clonar mi identidad digital”.

La responsabilidad también es de las plataformas, tanto de producción de contenido apócrifo con inteligencia artificial como de difusión de ese contenido, como las redes sociales. En ambos casos las empresas deben contar con mecanismos para, primero, alertar sobre la creación de contenido sexual falso como para dar de baja de manera inmediata su publicación.

En el caso de los menores, alertó Mendoza Iserte, del Inai, “va a tener una afectación en sus vidas cómo estamos tratando de limitar o contener los usos inadecuados de las tecnologías, porque lo que se tiene que regular es eso: las conductas”.

La red de apoyo

La persona víctima de un video porno deepfake o de la difusión no consensuada de imágenes íntimas debe saberse acompañada, arropada. Si conoces a alguien que está pasando por esto, acércate, muestra empatía y contribuye a construir fortaleza. 

“Es muy importante que la persona sepa que no está sola. Es importante fortalecer una red de apoyo”, no sólo en términos emocionales, sino también para denunciar el contenido apócrifo en la red social, dijo Angie Contreras.

Es seguro que no tendremos el apoyo de millones de Swifties, pero quizá baste una poca ayuda de nuestros amigos para detener la afectación y saber que hay personas que se preocupan. 

Periodista. Escribe Economicón, la newsletter sobre privacidad y sociedad de la información de México. Desde 2010 es editor en El Economista. Maestro en Transparencia y Protección de Datos Personales. Su canal de entrevistas en YouTube se llama Economicón.

Únete infórmate descubre

Suscríbete a nuestros
Newsletters

Ve a nuestros Newslettersregístrate aquí

Últimas noticias

Noticias Recomendadas