Berliner Boersenzeitung - En la era de la IA, las mujeres son las principales víctimas de la pornografía falsa

EUR -
AED 4.313468
AFN 77.598705
ALL 96.698386
AMD 447.792527
ANG 2.102883
AOA 1077.044807
ARS 1692.205144
AUD 1.764354
AWG 2.114155
AZN 2.001365
BAM 1.955767
BBD 2.361861
BDT 143.307608
BGN 1.957508
BHD 0.440693
BIF 3466.042156
BMD 1.17453
BND 1.514475
BOB 8.102865
BRL 6.365607
BSD 1.17268
BTN 106.04923
BWP 15.537741
BYN 3.457042
BYR 23020.795811
BZD 2.358461
CAD 1.618445
CDF 2630.948518
CHF 0.936843
CLF 0.027253
CLP 1069.11676
CNY 8.28573
CNH 8.284609
COP 4466.125466
CRC 586.590211
CUC 1.17453
CUP 31.125056
CVE 110.26316
CZK 24.276491
DJF 208.826515
DKK 7.472132
DOP 74.548756
DZD 151.60847
EGP 55.571073
ERN 17.617956
ETB 183.229742
FJD 2.668303
FKP 0.879936
GBP 0.880161
GEL 3.175767
GGP 0.879936
GHS 13.461775
GIP 0.879936
GMD 85.741137
GNF 10198.829794
GTQ 8.98185
GYD 245.335906
HKD 9.138141
HNL 30.873485
HRK 7.537789
HTG 153.707435
HUF 385.234681
IDR 19536.845016
ILS 3.785271
IMP 0.879936
INR 106.37734
IQD 1536.174363
IRR 49474.161194
ISK 148.465122
JEP 0.879936
JMD 187.756867
JOD 0.832789
JPY 182.950774
KES 151.217476
KGS 102.713135
KHR 4694.921647
KMF 492.719958
KPW 1057.060817
KRW 1731.880759
KWD 0.360233
KYD 0.977284
KZT 611.589793
LAK 25422.575728
LBP 105012.44747
LKR 362.353953
LRD 206.976546
LSL 19.78457
LTL 3.468083
LVL 0.710462
LYD 6.369894
MAD 10.78842
MDL 19.823669
MGA 5194.913303
MKD 61.548973
MMK 2466.385496
MNT 4167.553805
MOP 9.403343
MRU 46.930217
MUR 53.93488
MVR 18.092159
MWK 2033.466064
MXN 21.157878
MYR 4.812408
MZN 75.064681
NAD 19.78457
NGN 1706.088063
NIO 43.15928
NOK 11.906572
NPR 169.679168
NZD 1.992587
OMR 0.449462
PAB 1.17268
PEN 3.948134
PGK 5.054916
PHP 69.43241
PKR 328.640215
PLN 4.225315
PYG 7876.868545
QAR 4.273829
RON 5.092651
RSD 117.378041
RUB 93.298443
RWF 1706.771516
SAR 4.407079
SBD 9.603843
SCR 17.649713
SDG 706.484352
SEK 10.887784
SGD 1.517615
SHP 0.881202
SLE 28.335591
SLL 24629.319496
SOS 668.988835
SRD 45.275842
STD 24310.407882
STN 24.499591
SVC 10.260829
SYP 12986.886804
SZL 19.77767
THB 37.109332
TJS 10.77682
TMT 4.122602
TND 3.428143
TOP 2.827988
TRY 50.011936
TTD 7.957867
TWD 36.804032
TZS 2902.351563
UAH 49.548473
UGX 4167.930442
USD 1.17453
UYU 46.019232
UZS 14127.764225
VES 314.116117
VND 30897.196663
VUV 142.580188
WST 3.259869
XAF 655.946053
XAG 0.018954
XAU 0.000273
XCD 3.174228
XCG 2.113465
XDR 0.815786
XOF 655.946053
XPF 119.331742
YER 280.129715
ZAR 19.820741
ZMK 10572.187233
ZMW 27.059548
ZWL 378.198309
En la era de la IA, las mujeres son las principales víctimas de la pornografía falsa
En la era de la IA, las mujeres son las principales víctimas de la pornografía falsa / Foto: Stefani REYNOLDS - AFP

En la era de la IA, las mujeres son las principales víctimas de la pornografía falsa

Aplicaciones fotográficas que desnudan digitalmente a las mujeres, la posibilidad de crear desde una simple frase fotos de "chicas de inteligencia artificial (IA)" e imágenes manipuladas que alimentan la "extorsión sexual": el auge de la pornografía ultrafalsa está superando esfuerzos de EEUU y Europa para regular la tecnología.

Tamaño del texto:

Las falsificaciones de fotos y videos cada vez más realistas basadas en IA -llamadas "deepfakes"- generalmente se asocian a personalidades conocidas, como el papa Francisco con un abrigo acolchado o Donald Trump bajo arresto, pero los expertos afirman que su uso se está extendiendo para generar pornografía no consensuada que puede destruir vidas comunes y corrientes.

Las mujeres son un objetivo particular de las herramientas y aplicaciones de IA, ampliamente disponibles de forma gratuita y sin necesidad de conocimientos técnicos, que permiten a los usuarios retirar digitalmente la ropa de sus fotos o insertar sus rostros en videos sexualmente explícitos.

"El aumento de la pornografía generada por IA y de la 'deepfake porn' normaliza el uso de la imagen de una mujer sin su consentimiento", explica a la AFP Sophie Maddocks, investigadora de la Universidad de Pensilvania que estudia los abusos sexuales basados en imágenes.

"¿Qué mensaje enviamos como sociedad sobre el consentimiento cuando se puede desnudar virtualmente a cualquier mujer?", comentó.

En un dramático video, una "streamer" estadounidense de Twitch conocida como QTCinderella lamentó la "constante explotación y cosificación" de las mujeres cuando se convirtió en víctima del "porno deepfake". Fue acosada, agregó, por personas que le enviaban copias de las manipulaciones en las que aparecía.

El escándalo estalló en enero durante una transmisión en vivo del también "streamer" Brandon Ewing, quien fue sorprendido mirando un sitio web que contenía imágenes sexuales falsas de varias mujeres, entre ellas QTCinderella.

"No es tan simple como 'sólo' ser violada. Es mucho más que eso", escribió la creadora de contenido en Twitter, ahora llamado X, añadiendo que la experiencia la había "arruinado".

- "Chicas hiperreales" -

La proliferación de "deepfakes" subraya la amenaza de la desinformación habilitada por la IA, que puede dañar la reputación y provocar intimidación o acoso.

Si bien celebridades como la cantante Taylor Swift y la actriz Emma Watson han sido víctimas de la pornografía falsa, las mujeres que no están en el ojo público también son el objetivo de estos ataques.

Los medios de comunicación estadounidenses y europeos están llenos de testimonios de primera mano de mujeres, desde académicas hasta activistas, que se sorprendieron al descubrir sus rostros en videos pornográficos falsos.

Alrededor del 96% de los videos "deepfake" en línea son pornografía no consensuada y en la mayoría de ellos aparecen mujeres, según un estudio de 2019 realizado por la empresa holandesa de IA Sensity.

"El acto de la fantasía sexual, que antes era privado y que tiene lugar dentro de la mente de alguien, se transfiere ahora a la tecnología y a los creadores de contenidos en el mundo real", dijo a la AFP Roberta Duffield, directora de inteligencia de Blackbird.AI.

Hay aplicaciones gratuitas que pueden crear "chicas hiperreales de IA", avatares a partir de fotos reales, personalizándolas con indicaciones como "piel oscura" u otras con connotaciones sexuales.

- "Rincón oscuro" -

Los avances tecnológicos han dado lugar a lo que Duffield denomina una "industria artesanal en expansión" en torno al porno potenciado con IA, en la que muchos creadores de "deepfakes" aceptan solicitudes pagas para generar contenidos con una persona que el cliente elige.

El mes pasado, el FBI emitió una advertencia sobre los "esquemas de sextorsión", en los que los estafadores capturan fotos y videos de las redes sociales para crear material falso de "temática sexual" que luego se utilizan para chantajear al usuario afectado.

El FBI añadió que entre las víctimas había menores de edad y adultos que no dieron su consentimiento.

La proliferación de herramientas de inteligencia artificial ha superado la regulación.

"Esto no es un rincón oscuro de Internet, donde se crean y comparten estas imágenes", dijo a la AFP Dan Purcell, director ejecutivo y fundador de la empresa de protección de marcas de inteligencia artificial Ceartas.

"Está justo delante de nuestras narices. Y sí, la ley debe ponerse al día", añadió.

En Estados Unidos, cuatro estados, incluidos California y Virginia, prohibieron la distribución de pornografía falsa, pero las víctimas suelen tener pocos recursos legales si los perpetradores viven fuera de estas jurisdicciones.

En mayo, un legislador estadounidense presentó la Ley de prevención de falsificaciones profundas de imágenes íntimas, que haría ilegal compartir pornografía falsificada sin consentimiento.

Espacios en línea populares, como Reddit, también han tratado de regular sus florecientes comunidades de pornografía con IA.

"Internet es una jurisdicción sin fronteras, y debe haber una ley internacional unificada para proteger a las personas contra esta forma de explotación", dijo Purcell.

burs-ac/st/tjj/db/arm

(Y.Yildiz--BBZ)