"Deepfakes" pornográficos violentan y silencian a mujeres líderes


Un lugar sombrío en internet esconde miles de videos pornográficos donde las protagonistas son famosas como Taylor Swift o Mila Kunis. A pesar de que en las imágenes aparezcan sus rostros, el cuerpo no es el suyo.
"Deepfakes" pornográficos violentan y silencian a mujeres líderes
Foto: Independent en Español - Elle.com

Por Redacción TVP

miércoles, 5 de enero de 2022 12:46

Como muñecas, fueron creadas con inteligencia artificial, con un "software" que reemplazó la cara de una actriz porno por la de las artistas.

Se tratan de "deepfakes", creaciones digitales hechas con algoritmos que aprenden a base de la repetición y que después de codificar decenas de imágenes de rostros desde diferentes ángulos pueden sustituir la cara y la voz de una persona por la de otra.

No tienen por qué ser perniciosos, se usan también en la industria del cine o en la publicidad, pero la compañía Sensity AI estima que entre el 90 % y el 95 % de todos los "deepfakes" en línea son pornografía no consensual y alrededor del 90 % incluye a mujeres.

SILENCIAR A MUJERES LÍDERES

En ese patio trasero virtual, la gran mayoría de usuarios anónimos utiliza las caras de actrices o cantantes famosas. Aun así, las víctimas también son políticas o activistas.

Efe recibió en noviembre un "deepfake" de la activista Greta Thunberg que mostraba a la joven de 18 años gesticulando y bailando desnuda. El video estaba circulando en Brasil por WhatsApp e iba acompañado de un mensaje que la acusaba de "estar probando nuevas tácticas en contra del cambio climático".

Con una búsqueda en internet, Efe encontró el video de la actriz original a quien habían reemplazado la cara por la de Thunberg.

Catalina Moreno, de Fundación Karisma, organización colombiana que trabaja en la promoción de los derechos humanos en el mundo digital, señala que este tipo de "deepfakes" buscan "silenciar, evitar que haya mujeres visibles y en debates públicos".

En el caso de Thunberg, añade la experta, el "deepfake" quiere "cuestionar si su activismo en medioambiente es creíble teniendo en cuenta que hay un video circulando de ella desnuda" y "dejar su discurso en un segundo plano, quitarle interés a la lucha que está adelantando".

La periodista de investigación india Rana Ayyub explica en un artículo cómo, tras criticar a la India por una violación en Cachemira de una niña de 8 años, empezó a circular un "deepfake" pornográfico en el que aparecía su rostro y por el que sufrió ciberacoso en las redes. 

Las consecuencias a la larga, añade, fueron problemas mentales y autocensura.

La ONU se pronunció sobre el caso pidiéndole al Gobierno indio que la protegiera del ciberacoso, pero no hubo ninguna repercusión para los autores.

Los videos falsos además pueden poner en riesgo la vida de hombres en países donde la homosexualidad está criminalizada, en algunos con pena de muerte.

AL ALCANCE DE CUALQUIERA 

Para generar "deepfakes" se necesitan grandes cantidades de imágenes y videos desde diferentes ángulos, por eso hasta ahora era difícil utilizarlas en contra de mujeres anónimas. Aun así, ya existen aplicaciones que analizan fotografías de mujeres y con inteligencia artificial las desnudan en pocos minutos.

Sensity AI encontró en 2020 un chatbot de Telegram que había desnudado al menos a 100.000 mujeres. Por su parte, un estudio impulsado por el Parlamento europeo para abordar los "deepfakes" en la política europea señala que las aplicaciones están diseñadas con sesgos de género.

La investigación apunta que no hay regulación en la mayoría de países del mundo y recoge los ejemplos de los estados de EE.UU. de Virginia, Texas y California, los primeros en ese país en impulsar leyes sobre "deepfakes". 

Cardona insiste en la importancia de que las grandes empresas tecnológicas tomen cartas sobre el asunto y detengan el flujo de estos videos en sus plataformas. A pesar de que tanto la web pornográfica PornHub y Twitter prohibieran los "deepfakes" porno, EFE Verifica comprobó que cada día se cuelgan en esas plataformas centenares. 

Algunas empresas han desarrollado programas para identificar "deepfakes", pero no están al alcance del usuario. Por eso, es importante conocer algunos consejos para determinar si se encuentra delante de un "deepfake", como fijarse en si las gesticulaciones o la voz sufren retrasos, si el color de la piel entre la cara y el cuerpo coinciden, o si la fuente de la que provienen las imágenes es confiable y pública. 


#LasNoticias #LasNoticiasTVP #TVP #OrgulloLocal

Otras noticias de este miércoles 5 de enero:

China se confina a un mes de los Juegos Olímpicos y su Año Nuevo

López Obrador confía en los agentes de la DEA presentes en México

Cientos de personas linchan a un hombre en India por cortar un árbol sagrado

Fiscalía pide 39 años de prisión para Emilio Lozoya, exdirector de Pemex

Investigan a policía por "tablear" a detenido (video)


Compartir nota


Ultimas Noticias

tambien te puedo interesar

Secciones de noticias