Berliner Boersenzeitung - En la era de la IA, las mujeres son las principales víctimas de la pornografía falsa

EUR -
AED 4.320095
AFN 75.885663
ALL 95.39106
AMD 434.359293
ANG 2.105503
AOA 1079.875165
ARS 1641.608916
AUD 1.626097
AWG 2.117403
AZN 2.00155
BAM 1.955617
BBD 2.368967
BDT 144.323592
BGN 1.962246
BHD 0.444119
BIF 3501.171877
BMD 1.176335
BND 1.49156
BOB 8.128238
BRL 5.776866
BSD 1.176185
BTN 111.070676
BWP 15.79252
BYN 3.324188
BYR 23056.161221
BZD 2.365567
CAD 1.606091
CDF 2724.390954
CHF 0.915576
CLF 0.026587
CLP 1046.373458
CNY 8.005017
CNH 8.000023
COP 4398.19802
CRC 540.701063
CUC 1.176335
CUP 31.172871
CVE 110.244828
CZK 24.30766
DJF 209.470369
DKK 7.473237
DOP 69.953444
DZD 155.593016
EGP 62.020486
ERN 17.645021
ETB 183.670087
FJD 2.570173
FKP 0.864396
GBP 0.864212
GEL 3.152187
GGP 0.864396
GHS 13.250758
GIP 0.864396
GMD 85.872502
GNF 10320.111643
GTQ 8.981158
GYD 246.116934
HKD 9.20856
HNL 31.271069
HRK 7.533241
HTG 154.005567
HUF 356.064543
IDR 20432.346547
ILS 3.416253
IMP 0.864396
INR 111.13652
IQD 1540.955585
IRR 1544409.901346
ISK 143.806836
JEP 0.864396
JMD 185.392625
JOD 0.834004
JPY 184.389884
KES 151.900296
KGS 102.835777
KHR 4719.557692
KMF 492.883828
KPW 1058.643569
KRW 1725.519067
KWD 0.361876
KYD 0.980308
KZT 543.610531
LAK 25796.582394
LBP 105337.827942
LKR 378.68071
LRD 215.849771
LSL 19.297891
LTL 3.473411
LVL 0.711553
LYD 7.437639
MAD 10.757232
MDL 20.115115
MGA 4913.101009
MKD 61.641843
MMK 2469.840437
MNT 4209.987489
MOP 9.484411
MRU 47.016594
MUR 55.076306
MVR 18.180264
MWK 2039.30888
MXN 20.271482
MYR 4.612434
MZN 75.167161
NAD 19.297891
NGN 1599.45028
NIO 43.28208
NOK 10.821804
NPR 177.729344
NZD 1.973736
OMR 0.452335
PAB 1.17629
PEN 4.066656
PGK 5.19405
PHP 71.143536
PKR 327.806219
PLN 4.232417
PYG 7184.685358
QAR 4.299213
RON 5.224695
RSD 117.388809
RUB 87.170473
RWF 1724.438389
SAR 4.447279
SBD 9.448624
SCR 16.852352
SDG 706.388119
SEK 10.84046
SGD 1.491516
SHP 0.878253
SLE 28.944025
SLL 24667.14716
SOS 672.236999
SRD 44.031407
STD 24347.754442
STN 24.495518
SVC 10.292117
SYP 130.036684
SZL 19.285193
THB 37.889551
TJS 10.974871
TMT 4.128935
TND 3.41668
TOP 2.832332
TRY 53.363256
TTD 7.971541
TWD 36.930438
TZS 3063.933249
UAH 51.665846
UGX 4407.193579
USD 1.176335
UYU 46.911416
UZS 14267.389376
VES 583.707963
VND 30947.014765
VUV 138.838256
WST 3.180917
XAF 655.895531
XAG 0.014572
XAU 0.00025
XCD 3.179103
XCG 2.119812
XDR 0.818154
XOF 655.836996
XPF 119.331742
YER 280.672359
ZAR 19.312335
ZMK 10588.444039
ZMW 22.394901
ZWL 378.779312
En la era de la IA, las mujeres son las principales víctimas de la pornografía falsa
En la era de la IA, las mujeres son las principales víctimas de la pornografía falsa / Foto: Stefani REYNOLDS - AFP

En la era de la IA, las mujeres son las principales víctimas de la pornografía falsa

Aplicaciones fotográficas que desnudan digitalmente a las mujeres, la posibilidad de crear desde una simple frase fotos de "chicas de inteligencia artificial (IA)" e imágenes manipuladas que alimentan la "extorsión sexual": el auge de la pornografía ultrafalsa está superando esfuerzos de EEUU y Europa para regular la tecnología.

Tamaño del texto:

Las falsificaciones de fotos y videos cada vez más realistas basadas en IA -llamadas "deepfakes"- generalmente se asocian a personalidades conocidas, como el papa Francisco con un abrigo acolchado o Donald Trump bajo arresto, pero los expertos afirman que su uso se está extendiendo para generar pornografía no consensuada que puede destruir vidas comunes y corrientes.

Las mujeres son un objetivo particular de las herramientas y aplicaciones de IA, ampliamente disponibles de forma gratuita y sin necesidad de conocimientos técnicos, que permiten a los usuarios retirar digitalmente la ropa de sus fotos o insertar sus rostros en videos sexualmente explícitos.

"El aumento de la pornografía generada por IA y de la 'deepfake porn' normaliza el uso de la imagen de una mujer sin su consentimiento", explica a la AFP Sophie Maddocks, investigadora de la Universidad de Pensilvania que estudia los abusos sexuales basados en imágenes.

"¿Qué mensaje enviamos como sociedad sobre el consentimiento cuando se puede desnudar virtualmente a cualquier mujer?", comentó.

En un dramático video, una "streamer" estadounidense de Twitch conocida como QTCinderella lamentó la "constante explotación y cosificación" de las mujeres cuando se convirtió en víctima del "porno deepfake". Fue acosada, agregó, por personas que le enviaban copias de las manipulaciones en las que aparecía.

El escándalo estalló en enero durante una transmisión en vivo del también "streamer" Brandon Ewing, quien fue sorprendido mirando un sitio web que contenía imágenes sexuales falsas de varias mujeres, entre ellas QTCinderella.

"No es tan simple como 'sólo' ser violada. Es mucho más que eso", escribió la creadora de contenido en Twitter, ahora llamado X, añadiendo que la experiencia la había "arruinado".

- "Chicas hiperreales" -

La proliferación de "deepfakes" subraya la amenaza de la desinformación habilitada por la IA, que puede dañar la reputación y provocar intimidación o acoso.

Si bien celebridades como la cantante Taylor Swift y la actriz Emma Watson han sido víctimas de la pornografía falsa, las mujeres que no están en el ojo público también son el objetivo de estos ataques.

Los medios de comunicación estadounidenses y europeos están llenos de testimonios de primera mano de mujeres, desde académicas hasta activistas, que se sorprendieron al descubrir sus rostros en videos pornográficos falsos.

Alrededor del 96% de los videos "deepfake" en línea son pornografía no consensuada y en la mayoría de ellos aparecen mujeres, según un estudio de 2019 realizado por la empresa holandesa de IA Sensity.

"El acto de la fantasía sexual, que antes era privado y que tiene lugar dentro de la mente de alguien, se transfiere ahora a la tecnología y a los creadores de contenidos en el mundo real", dijo a la AFP Roberta Duffield, directora de inteligencia de Blackbird.AI.

Hay aplicaciones gratuitas que pueden crear "chicas hiperreales de IA", avatares a partir de fotos reales, personalizándolas con indicaciones como "piel oscura" u otras con connotaciones sexuales.

- "Rincón oscuro" -

Los avances tecnológicos han dado lugar a lo que Duffield denomina una "industria artesanal en expansión" en torno al porno potenciado con IA, en la que muchos creadores de "deepfakes" aceptan solicitudes pagas para generar contenidos con una persona que el cliente elige.

El mes pasado, el FBI emitió una advertencia sobre los "esquemas de sextorsión", en los que los estafadores capturan fotos y videos de las redes sociales para crear material falso de "temática sexual" que luego se utilizan para chantajear al usuario afectado.

El FBI añadió que entre las víctimas había menores de edad y adultos que no dieron su consentimiento.

La proliferación de herramientas de inteligencia artificial ha superado la regulación.

"Esto no es un rincón oscuro de Internet, donde se crean y comparten estas imágenes", dijo a la AFP Dan Purcell, director ejecutivo y fundador de la empresa de protección de marcas de inteligencia artificial Ceartas.

"Está justo delante de nuestras narices. Y sí, la ley debe ponerse al día", añadió.

En Estados Unidos, cuatro estados, incluidos California y Virginia, prohibieron la distribución de pornografía falsa, pero las víctimas suelen tener pocos recursos legales si los perpetradores viven fuera de estas jurisdicciones.

En mayo, un legislador estadounidense presentó la Ley de prevención de falsificaciones profundas de imágenes íntimas, que haría ilegal compartir pornografía falsificada sin consentimiento.

Espacios en línea populares, como Reddit, también han tratado de regular sus florecientes comunidades de pornografía con IA.

"Internet es una jurisdicción sin fronteras, y debe haber una ley internacional unificada para proteger a las personas contra esta forma de explotación", dijo Purcell.

burs-ac/st/tjj/db/arm

(Y.Yildiz--BBZ)