The Prague Post - En la era de la IA, las mujeres son las principales víctimas de la pornografía falsa

EUR -
AED 4.271996
AFN 80.420025
ALL 97.612169
AMD 447.055732
ANG 2.08159
AOA 1066.558008
ARS 1482.128904
AUD 1.783996
AWG 2.093571
AZN 1.978892
BAM 1.956044
BBD 2.350493
BDT 141.327618
BGN 1.957535
BHD 0.438655
BIF 3469.432512
BMD 1.163095
BND 1.494286
BOB 8.044003
BRL 6.490649
BSD 1.164145
BTN 100.219494
BWP 15.629948
BYN 3.809775
BYR 22796.661917
BZD 2.338392
CAD 1.595475
CDF 3356.692055
CHF 0.932381
CLF 0.029215
CLP 1121.099761
CNY 8.348638
CNH 8.350993
COP 4677.683138
CRC 587.473237
CUC 1.163095
CUP 30.822017
CVE 110.278748
CZK 24.63028
DJF 207.095817
DKK 7.462883
DOP 70.308765
DZD 151.622902
EGP 57.453994
ERN 17.446425
ETB 161.751965
FJD 2.622666
FKP 0.867067
GBP 0.866365
GEL 3.151709
GGP 0.867067
GHS 12.136513
GIP 0.867067
GMD 83.164702
GNF 10101.259261
GTQ 8.938114
GYD 243.560363
HKD 9.127097
HNL 30.467798
HRK 7.538016
HTG 152.849055
HUF 399.244568
IDR 18991.305865
ILS 3.911401
IMP 0.867067
INR 100.199242
IQD 1524.990111
IRR 48980.848634
ISK 142.455961
JEP 0.867067
JMD 186.163208
JOD 0.824637
JPY 172.065362
KES 150.408751
KGS 101.713218
KHR 4665.581629
KMF 492.318701
KPW 1046.785507
KRW 1618.099529
KWD 0.355488
KYD 0.970121
KZT 620.597366
LAK 25105.1297
LBP 104307.403352
LKR 351.223785
LRD 233.409098
LSL 20.61167
LTL 3.434317
LVL 0.703545
LYD 6.331789
MAD 10.526712
MDL 19.802469
MGA 5180.645839
MKD 61.567675
MMK 2442.163159
MNT 4170.690885
MOP 9.411573
MRU 46.308773
MUR 53.153087
MVR 17.923336
MWK 2018.651653
MXN 21.792792
MYR 4.938467
MZN 74.391995
NAD 20.61167
NGN 1780.663561
NIO 42.845341
NOK 11.846646
NPR 160.35099
NZD 1.947597
OMR 0.447316
PAB 1.164145
PEN 4.143817
PGK 4.820601
PHP 66.424556
PKR 331.548532
PLN 4.246336
PYG 9010.123236
QAR 4.232728
RON 5.066087
RSD 117.164606
RUB 91.398174
RWF 1682.209711
SAR 4.364778
SBD 9.652347
SCR 17.094531
SDG 698.439889
SEK 11.253159
SGD 1.494636
SHP 0.91401
SLE 26.631791
SLL 24389.525105
SOS 665.282937
SRD 43.276414
STD 24073.718133
STN 24.503055
SVC 10.18627
SYP 15122.392678
SZL 20.607569
THB 37.689514
TJS 11.204897
TMT 4.082463
TND 3.422327
TOP 2.724082
TRY 46.965903
TTD 7.902985
TWD 34.206277
TZS 3032.578053
UAH 48.617361
UGX 4171.520037
USD 1.163095
UYU 46.915849
UZS 14735.837025
VES 136.041361
VND 30426.56509
VUV 139.326667
WST 3.078598
XAF 656.038784
XAG 0.03047
XAU 0.000347
XCD 3.143323
XCG 2.098062
XDR 0.815902
XOF 656.038784
XPF 119.331742
YER 280.364024
ZAR 20.601262
ZMK 10469.249284
ZMW 26.804342
ZWL 374.516114
En la era de la IA, las mujeres son las principales víctimas de la pornografía falsa
En la era de la IA, las mujeres son las principales víctimas de la pornografía falsa / Foto: Stefani REYNOLDS - AFP

En la era de la IA, las mujeres son las principales víctimas de la pornografía falsa

Aplicaciones fotográficas que desnudan digitalmente a las mujeres, la posibilidad de crear desde una simple frase fotos de "chicas de inteligencia artificial (IA)" e imágenes manipuladas que alimentan la "extorsión sexual": el auge de la pornografía ultrafalsa está superando esfuerzos de EEUU y Europa para regular la tecnología.

Tamaño del texto:

Las falsificaciones de fotos y videos cada vez más realistas basadas en IA -llamadas "deepfakes"- generalmente se asocian a personalidades conocidas, como el papa Francisco con un abrigo acolchado o Donald Trump bajo arresto, pero los expertos afirman que su uso se está extendiendo para generar pornografía no consensuada que puede destruir vidas comunes y corrientes.

Las mujeres son un objetivo particular de las herramientas y aplicaciones de IA, ampliamente disponibles de forma gratuita y sin necesidad de conocimientos técnicos, que permiten a los usuarios retirar digitalmente la ropa de sus fotos o insertar sus rostros en videos sexualmente explícitos.

"El aumento de la pornografía generada por IA y de la 'deepfake porn' normaliza el uso de la imagen de una mujer sin su consentimiento", explica a la AFP Sophie Maddocks, investigadora de la Universidad de Pensilvania que estudia los abusos sexuales basados en imágenes.

"¿Qué mensaje enviamos como sociedad sobre el consentimiento cuando se puede desnudar virtualmente a cualquier mujer?", comentó.

En un dramático video, una "streamer" estadounidense de Twitch conocida como QTCinderella lamentó la "constante explotación y cosificación" de las mujeres cuando se convirtió en víctima del "porno deepfake". Fue acosada, agregó, por personas que le enviaban copias de las manipulaciones en las que aparecía.

El escándalo estalló en enero durante una transmisión en vivo del también "streamer" Brandon Ewing, quien fue sorprendido mirando un sitio web que contenía imágenes sexuales falsas de varias mujeres, entre ellas QTCinderella.

"No es tan simple como 'sólo' ser violada. Es mucho más que eso", escribió la creadora de contenido en Twitter, ahora llamado X, añadiendo que la experiencia la había "arruinado".

- "Chicas hiperreales" -

La proliferación de "deepfakes" subraya la amenaza de la desinformación habilitada por la IA, que puede dañar la reputación y provocar intimidación o acoso.

Si bien celebridades como la cantante Taylor Swift y la actriz Emma Watson han sido víctimas de la pornografía falsa, las mujeres que no están en el ojo público también son el objetivo de estos ataques.

Los medios de comunicación estadounidenses y europeos están llenos de testimonios de primera mano de mujeres, desde académicas hasta activistas, que se sorprendieron al descubrir sus rostros en videos pornográficos falsos.

Alrededor del 96% de los videos "deepfake" en línea son pornografía no consensuada y en la mayoría de ellos aparecen mujeres, según un estudio de 2019 realizado por la empresa holandesa de IA Sensity.

"El acto de la fantasía sexual, que antes era privado y que tiene lugar dentro de la mente de alguien, se transfiere ahora a la tecnología y a los creadores de contenidos en el mundo real", dijo a la AFP Roberta Duffield, directora de inteligencia de Blackbird.AI.

Hay aplicaciones gratuitas que pueden crear "chicas hiperreales de IA", avatares a partir de fotos reales, personalizándolas con indicaciones como "piel oscura" u otras con connotaciones sexuales.

- "Rincón oscuro" -

Los avances tecnológicos han dado lugar a lo que Duffield denomina una "industria artesanal en expansión" en torno al porno potenciado con IA, en la que muchos creadores de "deepfakes" aceptan solicitudes pagas para generar contenidos con una persona que el cliente elige.

El mes pasado, el FBI emitió una advertencia sobre los "esquemas de sextorsión", en los que los estafadores capturan fotos y videos de las redes sociales para crear material falso de "temática sexual" que luego se utilizan para chantajear al usuario afectado.

El FBI añadió que entre las víctimas había menores de edad y adultos que no dieron su consentimiento.

La proliferación de herramientas de inteligencia artificial ha superado la regulación.

"Esto no es un rincón oscuro de Internet, donde se crean y comparten estas imágenes", dijo a la AFP Dan Purcell, director ejecutivo y fundador de la empresa de protección de marcas de inteligencia artificial Ceartas.

"Está justo delante de nuestras narices. Y sí, la ley debe ponerse al día", añadió.

En Estados Unidos, cuatro estados, incluidos California y Virginia, prohibieron la distribución de pornografía falsa, pero las víctimas suelen tener pocos recursos legales si los perpetradores viven fuera de estas jurisdicciones.

En mayo, un legislador estadounidense presentó la Ley de prevención de falsificaciones profundas de imágenes íntimas, que haría ilegal compartir pornografía falsificada sin consentimiento.

Espacios en línea populares, como Reddit, también han tratado de regular sus florecientes comunidades de pornografía con IA.

"Internet es una jurisdicción sin fronteras, y debe haber una ley internacional unificada para proteger a las personas contra esta forma de explotación", dijo Purcell.

burs-ac/st/tjj/db/arm

O.Holub--TPP