Porno falso de venganza: así podría describirse el uso de la tecnología ‘deepfake’ en la pornografía, una práctica violenta que consiste en trucar el rostro de mujeres en vídeos porno no consensuado.

Algunas mujeres víctimas han tenido que cambiar sus nombres o retirarse completamente de Internet.

Todas temen volver a ser traumatizadas.
El deepfake en el porno es un problema de violencia contra las mujeres. Así lo demostró una investigación de la compañía neerlandesa Sensity AI, que rastreó los vídeos en línea desde diciembre de 2018, entre el 90% y 95% de los deepfakes son porno no consensual. Alrededor del 90% es porno no consentido de mujeres, según la información publicada en Technology Review, la revista del Instituto Tecnológico de Massachussets (MIT).

Hoy hacer desnudos falsos de cualquier mujer es demasiado fácil. El código subyacente para “desnudar” las fotos de mujeres existe en repositorios de código abierto, se advierte Technology Review.

Como resultado, el alcance del abuso ha crecido: ahora los objetivos no son solo las celebridades y los influencers de Instagram, sino que puede ser cualquier mujer, dijo a la revista del MIT Giorgio Patrini, CEO y jefe científico de Sensity IA.

En el contexto de la pandemia, esta tendencia es aún más preocupante. Sophie Mortimer, que gestiona la organización británica sin ánimo de lucro Revenge Porn Helpline, dijo a Technology Review que el número de casos de la línea de ayuda casi se ha duplicado desde el inicio de la cuarentena. “Las relaciones abusivas existentes han empeorado, y el abuso digital ha experimentado un aumento a medida que las personas se han ido aislando y han pasado más tiempo en línea”, advirtió.
“Es una herramienta perfecta para alguien que quiere ejercer poder y control sobre una víctima”, dijo a la revista del MIT Adam Dodge, fundador de la organización civil estadounidense EndTAB, que educa a las personas sobre los abusos que permiten las tecnologías.

Origen de los deepfakes
En diciembre de 2017 la reportera de Motherboard de Vice, Samantha Cole, descubrió que un usuario de Reddit con el nombre de pantalla “deepfakes” utilizaba técnicas de Inteligencia Artificial (IA) para intercambiar los rostros de celebridades femeninas en vídeos porno. Los vídeos parecían reales, no se advertía la simulación. Cole trató de advertir a los lectores: “otras mujeres serían las siguientes”.

El asunto obtuvo cierta atención pública, pero principalmente por la novedad que implicaba la tecnología, no por la amenaza que representaba a las mujeres.
¿Hay legislación que sancione los ‘deepfakes’ en el porno no consentido?
En Estados Unidos, 46 estados tienen alguna prohibición sobre el porno de venganza, pero sólo los de Virginia y California incluyen los medios falsos y deepfakes. En el Reino Unido, el porno de venganza está prohibido, pero la ley no incluye nada sobre las imágenes o vídeos que hayan sido falsificados. En ambos países las iniciativas de los movimientos sociales que trabajan el tema están ganando impulso para prohibir la pornografía deepfake no consentida.

Pero los deepfakes también representan una interesante oportunidad legislativa porque los legisladores están muy preocupados por la capacidad de la tecnología para interferir en las elecciones. Technology Review recuerda que la vicepresidenta de Estados Unidos Kamala Harris es defensora de la prohibición federal del porno de venganza, lo que podría movilizar más apoyos.