En la era de la IA, las mujeres luchan contra el auge del porno falso

En la era de la IA, las mujeres luchan contra el auge del porno falso

La difusión de pornografía falsa destaca la amenaza de la desinformación mediada por IA, que puede dañar la reputación y provocar intimidación o acoso.

Desde aplicaciones de fotos que desnudan digitalmente a las mujeres, indicaciones sexualizadas de texto a imagen que crean “chicas con IA” e imágenes manipuladas que alimentan el negocio de la “extorsión sexual”, el auge de la pornografía ultrafalsa está por delante de los esfuerzos de EE. UU. y Europa para regular la tecnología.

Las falsificaciones profundas de inteligencia artificial generalmente se asocian con imágenes virales falsas de celebridades como el Papa Francisco con un abrigo de plumas o el arrestado Donald Trump, pero los expertos dicen que se usan con mayor frecuencia para generar pornografía sin consentimiento que puede destruir vidas comunes.

Las mujeres son un objetivo particular de las herramientas y aplicaciones de IA, ampliamente disponibles de forma gratuita y que no requieren experiencia técnica, que permiten a los usuarios quitarse la ropa digitalmente de las fotos o insertar sus rostros en videos sexualmente explícitos.

“La proliferación de la pornografía generada por IA y la pornografía falsa normaliza el uso de la imagen o semejanza de una mujer sin su consentimiento”, dijo a la AFP Sophie Maddocks, investigadora de la Universidad de Pensilvania que rastrea el abuso sexual basado en imágenes.

“¿Qué mensaje estamos enviando sobre el consentimiento como sociedad cuando prácticamente puedes desnudar a cualquier mujer?”.

En un video lloroso, el streamer estadounidense de Twitch, que se hace llamar QTCinderella, lamentó la “explotación y cosificación constantes” de las mujeres que se han convertido en víctimas de la pornografía profunda. Agregó que fue acosada por personas que le enviaron copias de deepfakes de ella.

El escándalo estalló en enero durante una transmisión en vivo del también streamer Brandon Ewing, quien fue sorprendido navegando en un sitio web que contenía fotos sexuales falsas de varias mujeres, incluida QTCinderella.

“No es tan simple como ‘simplemente’ ser violado. Es mucho más”, tuiteó, y agregó que la experiencia la “arruinó”.

“Hiperreal”

La proliferación de deepfakes en línea destaca la amenaza de la desinformación mediada por IA, que puede dañar la reputación y provocar intimidación o acoso.

Si bien celebridades como la cantante Taylor Swift y la actriz Emma Watson han sido víctimas de pornografía falsa, las mujeres que no se ven en público también están siendo atacadas.

Los medios estadounidenses y europeos están llenos de relatos de primera mano de mujeres, desde científicas hasta activistas, que se sorprendieron al descubrir sus rostros en videos pornográficos falsos.

Según un estudio de 2019 realizado por la empresa holandesa de inteligencia artificial Sensity, alrededor del 96 % de los videos falsos en línea son pornografía no consentida, y la mayoría de ellos presenta a mujeres.

“El acto previamente privado de fantasía sexual que tiene lugar en la mente de alguien ahora se está transfiriendo a la tecnología y a los creadores de contenido en el mundo real”, dijo a la AFP Roberta Duffield, directora de inteligencia de Blackbird.AI.

“La facilidad de acceso y la falta de supervisión, junto con la creciente profesionalización de la industria, empodera estas tecnologías en nuevas formas de explotación y humillación de las mujeres”.

Entre los nuevos generadores de texto a gráfico hay aplicaciones gratuitas que pueden crear avatares de “chicas con IA hiperrealistas” a partir de fotos reales, personalizándolas con sugerencias como “piel oscura” y “correa para el muslo”.

Las nuevas tecnologías, como Stable Diffusion, un modelo de IA de código abierto desarrollado por Stability AI, han hecho posible evocar imágenes realistas a partir de descripciones textuales.

“Rincón oscuro”

Los avances tecnológicos han dado lugar a lo que Duffield ha llamado una “industria casera en explosión” en torno a la pornografía mejorada por IA, con muchos creadores de deepfakes que aceptan solicitudes pagas para generar contenido con una persona de su elección.

El mes pasado, el FBI emitió una advertencia sobre “esquemas de extorsión sexual” en los que los estafadores secuestran fotos y videos de las redes sociales para crear falsificaciones profundas con temas sexuales, que luego se utilizan para extorsionar dinero.

Entre las víctimas, agregó el FBI, había niños menores de edad y adultos que no habían dado su consentimiento.

La proliferación de herramientas de inteligencia artificial ha superado la regulación.

“Este no es un rincón oscuro de Internet donde se crean y comparten estas imágenes”, dijo a la AFP Dan Purcell, director ejecutivo y fundador de la firma de protección de marcas de inteligencia artificial Ceartas.

“Está justo debajo de nuestras narices. Y sí, la ley tiene que ponerse al día”.

En el Reino Unido, el gobierno ha propuesto un nuevo proyecto de ley de seguridad en línea que tiene como objetivo criminalizar el intercambio de deepfakes pornográficos.

Cuatro estados de EE. UU., incluidos California y Virginia, han prohibido la distribución de pornografía falsa, pero las víctimas suelen tener pocos recursos legales si los perpetradores viven fuera de estas jurisdicciones.

En mayo, el legislador de EE. UU. presentó la Ley de prevención de imágenes íntimas falsas profundas, que hace ilegal compartir pornografía profunda sin consentimiento.

Los espacios en línea populares como Reddit también han tratado de regular sus florecientes comunidades de pornografía de IA.

“Internet es una jurisdicción sin fronteras, y debe haber una ley internacional uniforme para proteger a las personas de esta forma de explotación”, dijo Purcell.

© 2023 AFP

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *