Estrella de Twitch es víctima del 'deepfake' pornográfico: cuál es el impacto de esta tecnología en la salud mental
QTCinderella, como se hace llamar la joven en la plataforma, donde es conocida por sus retransmisiones sobre videojuegos y repostería, hizo una aparición en directo en el sitio de streaming hace unos días para arremeter contra los autores del video porno falso donde ella aparece, así como contra una destacada estrella masculina de Twitch que había itido haber comprado porno 'deepfake'.
"Estoy agotada y creo que tienen que saber lo que es el dolor, porque esto es lo que es", se lamentaba. "Esto es lo que se siente al sentirse violada. Así es como te sientes cuando se aprovechan de ti, así es como te ves desnudo en contra de tu voluntad y difundido por todo Internet. Así es como se ve".
A finales de enero, un colega de Twitch mostró brevemente una ventana del navegador en la que aparecía un video explícito de la joven generado por inteligencia artificial (o pornografía ‘deepfake’), tan realista que incluso ella misma se sintió momentáneamente engañada.
Desde entonces, su nombre, su cara y su marca se asocian a la pornografía, en un caso que pone de manifiesto cómo el uso de esta tecnología para crear videos pornográficos falsos, una preocupación creciente en los últimos años, puede ser muy dañino para las personas expuestas a ellos y tener un impacto significativo en su salud mental.
Los 'deepfake' no son reales, pero su impacto sí lo es
Los ‘deepfake’ pornográficos pueden causar una sensación de violación en las personas cuyas imágenes o videos han sido manipulados. Aunque el acto en sí no es real, la víctima puede sentir que su cuerpo ha sido invadido y utilizado sin su consentimiento, lo que puede generar sentimientos de vergüenza, humillación y trauma.
Esto es lo que le sucedió a esta ‘streamer’, cuando, abrumada, decidió compartir sus sentimientos en una improvisada retransmisión en directo ante sus 800,000 seguidores. "Quería mostrar que esto es importante", dijo QT en declaraciones a USA Today. "Que todas y cada una de las mujeres de ese sitio web, así es como se sienten. Mírame sollozando y dime que sigues pensando que esto está bien".
Qué es el ‘deepfake’
El ‘deepfake’ es una técnica de inteligencia artificial que permite crear videos o imágenes falsas, que parecen reales, mediante el uso de algoritmos complejos de aprendizaje automático. La tecnología puede superponer la imagen y la voz de una persona en un video existente, creando un nuevo video que parece auténtico y realista, pero que en realidad es una simulación generada por computadora.
Estos videos falsos pueden ser utilizados para difamar a personas, extorsionarlas o simplemente para fines de entretenimiento. Su impacto en la salud mental de las personas expuestas puede ser devastador. Las víctimas pueden experimentar ansiedad, depresión, estrés postraumático e incluso pensamientos suicidas como resultado de la vergüenza y el estigma asociados con el contenido.
El efecto de estos videos también puede tener un impacto más amplio en la sociedad, ya que pueden perpetuar y normalizar la violencia sexual y el acoso en línea. Además, los deep fake pornográficos también pueden ser utilizados para engañar a los espectadores y crear expectativas poco realistas de la apariencia y el comportamiento sexual.
Otros casos sonados de mal uso de la tecnología se produjeron en las elecciones presidenciales con los deepfakes de Joe Biden para hacerlo parecer enfermo o confundido, mientras que actrices famosas como Scarlett Johansson y Emma Watson han sido víctimas de videos porno ‘deepfake’.
Plataformas como Reddit ya lo han prohibido, pero siguen existiendo sitios más pequeños que lo permiten. E incluso si una persona consigue que se elimine un video explícito, como pudo hacer QT, las capturas de pantalla siguen circulando.
Una imagen puede crear un trauma
En contra de la creencia popular, la trabajadora social Jessica Klein afirma que una imagen, alterada o no, es suficiente para crear un trauma real y tangible. La investigación ha demostrado que los efectos sobre la salud mental de la agresión sexual y el abuso no consentido basado en imágenes (como la pornografía vengativa) son similares.
"No es necesario que algo le ocurra físicamente a tu cuerpo para que sea traumático", dijo al USAToday Klein, que trabaja con víctimas de porno vengativo. "Es una violación. Una sensación de impotencia, miedo y vergüenza. Tu sensación de seguridad queda completamente aniquilada cuando tu cuerpo es retratado de esta forma no consentida para que lo vean millones de personas."
Maya Higa, otra streamer que también fue víctima de la pornografía ‘deepfake’, compartió un parecer similar. "Hoy, he sido utilizada por cientos de hombres para gratificación sexual sin mi consentimiento. El mundo llama violación a mi experiencia de 2018. El mundo debate sobre la validez de mi experiencia hoy", escribió Higa en un comunicado en Twitter el 31 de enero.
Mientras que muchos estados tienen leyes contra la "porno venganza" y las imágenes de desnudos no consentidas, sólo tres estados (California, Virginia y Texas) incluyen específicamente los deepfakes.