Berliner Boersenzeitung - En la era de la IA, las mujeres son las principales víctimas de la pornografía falsa

EUR -
AED 4.260787
AFN 72.50444
ALL 96.181978
AMD 437.900577
ANG 2.076831
AOA 1063.891421
ARS 1620.797192
AUD 1.658085
AWG 2.088336
AZN 1.970026
BAM 1.960492
BBD 2.333215
BDT 142.138981
BGN 1.983118
BHD 0.437933
BIF 3439.954083
BMD 1.160187
BND 1.482103
BOB 8.005333
BRL 6.074626
BSD 1.158473
BTN 108.272547
BWP 15.829546
BYN 3.449307
BYR 22739.662744
BZD 2.329746
CAD 1.593499
CDF 2637.105366
CHF 0.913137
CLF 0.026773
CLP 1057.138921
CNY 7.982668
CNH 7.990491
COP 4305.824752
CRC 540.281506
CUC 1.160187
CUP 30.744952
CVE 110.507645
CZK 24.446704
DJF 206.188037
DKK 7.47187
DOP 69.466132
DZD 153.8229
EGP 60.730676
ERN 17.402803
ETB 182.584407
FJD 2.57144
FKP 0.869584
GBP 0.864519
GEL 3.149927
GGP 0.869584
GHS 12.65186
GIP 0.869584
GMD 84.694191
GNF 10186.440898
GTQ 8.873238
GYD 242.366364
HKD 9.089078
HNL 30.768235
HRK 7.535064
HTG 151.729892
HUF 387.927623
IDR 19571.192389
ILS 3.614736
IMP 0.869584
INR 108.276354
IQD 1519.844806
IRR 1525703.749098
ISK 143.596065
JEP 0.869584
JMD 182.468306
JOD 0.822596
JPY 183.95401
KES 150.227716
KGS 101.458707
KHR 4658.150428
KMF 493.079859
KPW 1044.172798
KRW 1733.818235
KWD 0.355516
KYD 0.965427
KZT 558.38482
LAK 25002.026821
LBP 103894.734936
LKR 363.764984
LRD 213.007367
LSL 19.642187
LTL 3.42573
LVL 0.701786
LYD 7.419431
MAD 10.861648
MDL 20.261845
MGA 4832.178169
MKD 61.598908
MMK 2435.757154
MNT 4138.328821
MOP 9.347014
MRU 46.53515
MUR 54.029674
MVR 17.924774
MWK 2015.24491
MXN 20.658637
MYR 4.553723
MZN 74.147926
NAD 19.514377
NGN 1601.232315
NIO 42.601697
NOK 11.302947
NPR 173.221657
NZD 1.983548
OMR 0.446116
PAB 1.158418
PEN 4.029285
PGK 4.995188
PHP 69.436894
PKR 323.98207
PLN 4.260299
PYG 7570.15157
QAR 4.227745
RON 5.095425
RSD 117.501369
RUB 95.04465
RWF 1693.872837
SAR 4.355741
SBD 9.341497
SCR 16.846394
SDG 697.271915
SEK 10.829979
SGD 1.480219
SHP 0.870441
SLE 28.482483
SLL 24328.551228
SOS 663.046126
SRD 43.317318
STD 24013.525898
STN 24.55825
SVC 10.135823
SYP 128.274956
SZL 19.549855
THB 37.671069
TJS 11.068611
TMT 4.060654
TND 3.370309
TOP 2.793451
TRY 51.447094
TTD 7.86462
TWD 36.983051
TZS 3010.684749
UAH 50.864146
UGX 4373.373308
USD 1.160187
UYU 47.203183
UZS 14160.080286
VES 529.630361
VND 30560.482466
VUV 138.324551
WST 3.164748
XAF 657.510898
XAG 0.016717
XAU 0.000262
XCD 3.135463
XCG 2.087707
XDR 0.819183
XOF 659.568219
XPF 119.331742
YER 276.878852
ZAR 19.574964
ZMK 10443.064834
ZMW 22.445109
ZWL 373.5797
En la era de la IA, las mujeres son las principales víctimas de la pornografía falsa
En la era de la IA, las mujeres son las principales víctimas de la pornografía falsa / Foto: Stefani REYNOLDS - AFP

En la era de la IA, las mujeres son las principales víctimas de la pornografía falsa

Aplicaciones fotográficas que desnudan digitalmente a las mujeres, la posibilidad de crear desde una simple frase fotos de "chicas de inteligencia artificial (IA)" e imágenes manipuladas que alimentan la "extorsión sexual": el auge de la pornografía ultrafalsa está superando esfuerzos de EEUU y Europa para regular la tecnología.

Tamaño del texto:

Las falsificaciones de fotos y videos cada vez más realistas basadas en IA -llamadas "deepfakes"- generalmente se asocian a personalidades conocidas, como el papa Francisco con un abrigo acolchado o Donald Trump bajo arresto, pero los expertos afirman que su uso se está extendiendo para generar pornografía no consensuada que puede destruir vidas comunes y corrientes.

Las mujeres son un objetivo particular de las herramientas y aplicaciones de IA, ampliamente disponibles de forma gratuita y sin necesidad de conocimientos técnicos, que permiten a los usuarios retirar digitalmente la ropa de sus fotos o insertar sus rostros en videos sexualmente explícitos.

"El aumento de la pornografía generada por IA y de la 'deepfake porn' normaliza el uso de la imagen de una mujer sin su consentimiento", explica a la AFP Sophie Maddocks, investigadora de la Universidad de Pensilvania que estudia los abusos sexuales basados en imágenes.

"¿Qué mensaje enviamos como sociedad sobre el consentimiento cuando se puede desnudar virtualmente a cualquier mujer?", comentó.

En un dramático video, una "streamer" estadounidense de Twitch conocida como QTCinderella lamentó la "constante explotación y cosificación" de las mujeres cuando se convirtió en víctima del "porno deepfake". Fue acosada, agregó, por personas que le enviaban copias de las manipulaciones en las que aparecía.

El escándalo estalló en enero durante una transmisión en vivo del también "streamer" Brandon Ewing, quien fue sorprendido mirando un sitio web que contenía imágenes sexuales falsas de varias mujeres, entre ellas QTCinderella.

"No es tan simple como 'sólo' ser violada. Es mucho más que eso", escribió la creadora de contenido en Twitter, ahora llamado X, añadiendo que la experiencia la había "arruinado".

- "Chicas hiperreales" -

La proliferación de "deepfakes" subraya la amenaza de la desinformación habilitada por la IA, que puede dañar la reputación y provocar intimidación o acoso.

Si bien celebridades como la cantante Taylor Swift y la actriz Emma Watson han sido víctimas de la pornografía falsa, las mujeres que no están en el ojo público también son el objetivo de estos ataques.

Los medios de comunicación estadounidenses y europeos están llenos de testimonios de primera mano de mujeres, desde académicas hasta activistas, que se sorprendieron al descubrir sus rostros en videos pornográficos falsos.

Alrededor del 96% de los videos "deepfake" en línea son pornografía no consensuada y en la mayoría de ellos aparecen mujeres, según un estudio de 2019 realizado por la empresa holandesa de IA Sensity.

"El acto de la fantasía sexual, que antes era privado y que tiene lugar dentro de la mente de alguien, se transfiere ahora a la tecnología y a los creadores de contenidos en el mundo real", dijo a la AFP Roberta Duffield, directora de inteligencia de Blackbird.AI.

Hay aplicaciones gratuitas que pueden crear "chicas hiperreales de IA", avatares a partir de fotos reales, personalizándolas con indicaciones como "piel oscura" u otras con connotaciones sexuales.

- "Rincón oscuro" -

Los avances tecnológicos han dado lugar a lo que Duffield denomina una "industria artesanal en expansión" en torno al porno potenciado con IA, en la que muchos creadores de "deepfakes" aceptan solicitudes pagas para generar contenidos con una persona que el cliente elige.

El mes pasado, el FBI emitió una advertencia sobre los "esquemas de sextorsión", en los que los estafadores capturan fotos y videos de las redes sociales para crear material falso de "temática sexual" que luego se utilizan para chantajear al usuario afectado.

El FBI añadió que entre las víctimas había menores de edad y adultos que no dieron su consentimiento.

La proliferación de herramientas de inteligencia artificial ha superado la regulación.

"Esto no es un rincón oscuro de Internet, donde se crean y comparten estas imágenes", dijo a la AFP Dan Purcell, director ejecutivo y fundador de la empresa de protección de marcas de inteligencia artificial Ceartas.

"Está justo delante de nuestras narices. Y sí, la ley debe ponerse al día", añadió.

En Estados Unidos, cuatro estados, incluidos California y Virginia, prohibieron la distribución de pornografía falsa, pero las víctimas suelen tener pocos recursos legales si los perpetradores viven fuera de estas jurisdicciones.

En mayo, un legislador estadounidense presentó la Ley de prevención de falsificaciones profundas de imágenes íntimas, que haría ilegal compartir pornografía falsificada sin consentimiento.

Espacios en línea populares, como Reddit, también han tratado de regular sus florecientes comunidades de pornografía con IA.

"Internet es una jurisdicción sin fronteras, y debe haber una ley internacional unificada para proteger a las personas contra esta forma de explotación", dijo Purcell.

burs-ac/st/tjj/db/arm

(Y.Yildiz--BBZ)