Pornografía manipulada, una forma de violencia digital de género que crece

2023-05-26 Leer en voz alta

Por: Carolina Botero

Acceder a la publicación original de esta columna de opinión.

¿Ha reído con el video de alguien que conoce y aparece interpretando una canción famosa mientras gesticula o baila como usted no puede imaginar que lo haga? ¿Le desconcierta la animación de personas fallecidas que recobran vida? La tecnología que permite esto se está perfeccionando. Cada vez hay mejores deepfakes (falsificaciones profundas) y se están ensañando intensamente con las mujeres.

Sin su consentimiento las mujeres aparecen en videos porno manipulados que luego son usados por placer, pero también para burlarse de ellas, desprestigiarlas, estafarlas, etcétera. Hablemos de pornografía manipulada con inteligencia artificial para producir material de abuso sexual.

En un informe encargado por el Parlamento Europeo se definen los deep fakes como medios audiovisuales manipulados o sintéticos que parecen auténticos y que presentan a personas que parecen decir o hacer algo que nunca han dicho o hecho. Son producidos mediante técnicas de inteligencia artificial, incluidos el aprendizaje automático y el profundo.

En primer lugar, reafirmo que esta, como cualquier tecnología, tiene aplicaciones positivas. Creo firmemente que los deep fakes usadas en la industria audiovisual y la parodia —por poner solo dos ejemplos— son algo de lo que no queremos privarnos. Generan efectos positivos en la economía y son democratizadores en materia de libertad de expresión. Sin embargo, su mal uso tiene preocupantes impactos especialmente para las mujeres y esto obliga a abrir el debate sobre cómo evitar que alimenten fenómenos de desinformación política, violencia digital de género, estafas y una larga lista de problemas.

La revista MITTechnologyReview analizó un sitio que permite cambiar la imagen de las actrices y los actores en películas de pornografía con la de cualquier persona, usualmente mujeres que normalmente no consintieron aparecer allí. Una vez la persona usuaria del servicio sube la foto de quien quiere ver en el video y elige la película que desea, en segundos aparece una previsualización del producto. Si paga puede descargar toda la película manipulada.

A estas alturas entre el 90% y el 95% de los deep fakes en internet son de contenido sexual no consentido —me resisto a llamarlo pornografía pues si no hay consentimiento no debe tener ese nombre—, y el 90% de ellos son de mujeres. Como sucede en general con la difusión de contenido sexual no consentido, su impacto es devastador en las víctimas. El servicio más frecuente en línea no son las películas, es más básico: el desnudo de imágenes —subes una foto y te devuelven la imagen desvestida—.

Para el Parlamento Europeo, “preocupantemente, los deep fakes pornográficos no consentidos parecen dirigirse casi exclusivamente a las mujeres, lo que indica que los riesgos de los deep fakes tienen una importante dimensión de género”. Citando al director de la organización de la sociedad civil Witness, afirman que tecnologías como las aplicaciones para desnudar imágenes tienen un sesgo de género por diseño, “se hacen para el cuerpo de la mujer”, por eso preocupa que su uso incremente las diferentes formas de violencia digital de género.

El artículo de MIT Technology Review reconoce que ese sitio produce videos que todavía son poco realistas en general, pero —dice— tienen trozos que podrían engañar. Ahora bien, para los investigadores un video no tiene que ser realista para tener un impacto negativo en las víctimas, tan solo debe ser parte de algo así genera afectaciones. Además, el problema es que en una cultura en la que prima el “ver para creer” y mucha gente no sabe que esto es tecnológicamente posible, son muchas las personas que están dispuestas a no cuestionar lo que ven.

El artículo recoge testimonios de mujeres que han sido víctimas de campañas de desprestigio con videos de este tipo y muestra las consecuencias psicológicas, laborales y económicas. También indica que, después de las mujeres, las personas homosexuales siguen en afectación y recuerda que hay 71 países donde la homosexualidad es un delito, por lo tanto, este tipo de contenidos no solo afectan la reputación, también pueden tener consecuencias penales para sus víctimas.

Dicen que el sitio, cuyo nombre y URL no publicaron para evitar su difusión, ya no se encuentra en línea, lo que no es una garantía de que se mantenga así y en todo caso ya hay muchas herramientas de este tipo circulando por ahí. Por eso las dudas sobre si la solución es prohibirlos y sacarlos de línea quedan sobre el tapete. Al final lo que muchos temen es que si son prohibidos y relegados a la internet profunda, el negocio incluso podría mejorar.

Del informe del Parlamento Europeo quiero resaltar dos elementos adicionales. Primero, aunque hay mecanismos de detección tanto manuales como automatizados, son poco confiables, entre otras razones, porque los automatizados usan inteligencia artificial que está mejor entrenada para detectar a los hombres —no a las mujeres— y además puede entrenarse para engañar al detector. El segundo es que el informe indica que es esperable que los impactos negativos de estos deep fakes afectan más a los países en desarrollo.

Estando en época preelectoral en Colombia pienso en las mujeres en la política. La persona que más sufre los deepfakes (en general) es Alexandria Ocasio-Cortez. En la región hay dos informes que abordan la violencia política digital contra las mujeres durante contiendas electorales, uno de Ecuador en 2020 y otro de México en 2017. Ambos caracterizan y explican el problema, ninguno menciona todavía los deep fakes ni generales ni sexuales. Sin embargo, en México se registró la circulación de un video en donde una mujer bailaba en ropa interior con la canción del “movimiento naranja” de fondo; el video sirvió para una campaña de desprestigio contra una candidata a presidenta municipal en el estado de Sonora, la campaña decía que la mujer del video era ella.

Pienso en las mujeres que estarán en la contienda política en 2022, en su derecho a estar allí y en el nuestro a escucharlas. Para enfrentar estos nuevos desafíos debemos protegerlas colectivamente —sin sesgos partidistas— del coctel de violencias digitales combinadas con la desinformación. Para garantizar que sus voces estén en el debate público, hablemos de los riesgos de las tecnologías digitales, trabajemos para informar y animar a cuestionar lo que veremos y oiremos —busquemos mejorar nuestras ciudadanías digitales—, y reconozcamos que a esto contribuye el periodismo de calidad en espacios públicos de debate con pluralidad mediática, sobre todo si se hace con perspectiva de género.


Si por algún motivo esta entrada no es accesible para tí, por favor escríbenos a comunicaciones@karisma.org.co y haremos los ajustes que estén a nuestro alcance para que puedas acceder al contenido.

Indícanos el título del contenido en el asunto del correo, por ejemplo: Pornografía manipulada, una forma de violencia digital de género que crece


Es fundamental poner el tema en la agenda y nutrir la conversación. ¿Trabajas en un medio de comunicación? Escríbenos a comunicaciones@karisma.org.co


Acompáñanos en @Karisma en Twitter, Fundación Karisma en Facebook y YouTube, y @karismacol en Instagram y Tik Tok

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.