Berliner Boersenzeitung - Des photos de nus générées par IA: quand la sextorsion vise les enfants

EUR -
AED 4.31522
AFN 80.888304
ALL 97.498912
AMD 450.961785
ANG 2.102609
AOA 1077.328333
ARS 1495.545148
AUD 1.785198
AWG 2.117061
AZN 2.01233
BAM 1.954767
BBD 2.370958
BDT 143.554169
BGN 1.957153
BHD 0.442943
BIF 3499.980968
BMD 1.174839
BND 1.500327
BOB 8.114713
BRL 6.487701
BSD 1.174285
BTN 101.427422
BWP 15.69371
BYN 3.842986
BYR 23026.852341
BZD 2.358764
CAD 1.603762
CDF 3394.111322
CHF 0.934818
CLF 0.028458
CLP 1116.391284
CNY 8.404793
CNH 8.41366
COP 4786.013775
CRC 592.794432
CUC 1.174839
CUP 31.133244
CVE 110.205847
CZK 24.537655
DJF 208.90054
DKK 7.464419
DOP 71.253271
DZD 152.08381
EGP 57.644553
ERN 17.622591
ETB 161.96881
FJD 2.631934
FKP 0.865827
GBP 0.870473
GEL 3.184019
GGP 0.865827
GHS 12.271518
GIP 0.865827
GMD 84.588684
GNF 10187.705182
GTQ 9.012239
GYD 245.680222
HKD 9.220692
HNL 30.74915
HRK 7.538825
HTG 154.101221
HUF 396.878334
IDR 19177.138578
ILS 3.932645
IMP 0.865827
INR 101.657096
IQD 1538.287418
IRR 49475.420674
ISK 142.202486
JEP 0.865827
JMD 188.013085
JOD 0.833
JPY 172.597416
KES 151.718302
KGS 102.566655
KHR 4705.594432
KMF 491.662342
KPW 1057.367409
KRW 1618.012605
KWD 0.358479
KYD 0.978579
KZT 637.390593
LAK 25313.628379
LBP 105215.868765
LKR 354.42278
LRD 235.44663
LSL 20.700553
LTL 3.468995
LVL 0.710649
LYD 6.337679
MAD 10.546829
MDL 19.745738
MGA 5177.331239
MKD 61.527499
MMK 2465.79507
MNT 4218.199965
MOP 9.494685
MRU 46.701927
MUR 53.349419
MVR 18.060731
MWK 2036.250373
MXN 21.785975
MYR 4.956058
MZN 75.142686
NAD 20.699977
NGN 1795.00214
NIO 43.217539
NOK 11.889198
NPR 162.286346
NZD 1.949217
OMR 0.451744
PAB 1.17428
PEN 4.175694
PGK 4.938433
PHP 66.915914
PKR 333.642257
PLN 4.256298
PYG 8795.391372
QAR 4.293396
RON 5.071081
RSD 117.17847
RUB 93.40684
RWF 1697.425028
SAR 4.407443
SBD 9.733656
SCR 17.248342
SDG 705.492335
SEK 11.200132
SGD 1.503048
SHP 0.923239
SLE 26.96278
SLL 24635.799543
SOS 671.15404
SRD 42.987959
STD 24316.803695
STN 24.487273
SVC 10.274529
SYP 15275.247183
SZL 20.683074
THB 37.993557
TJS 11.155755
TMT 4.123686
TND 3.422792
TOP 2.751589
TRY 47.64496
TTD 7.98075
TWD 34.583165
TZS 3019.337536
UAH 49.06211
UGX 4213.774124
USD 1.174839
UYU 46.965391
UZS 14987.083253
VES 141.301934
VND 30709.714631
VUV 140.754337
WST 3.229407
XAF 655.619048
XAG 0.030088
XAU 0.00035
XCD 3.175062
XCG 2.116382
XDR 0.81538
XOF 655.61347
XPF 119.331742
YER 283.07773
ZAR 20.724642
ZMK 10574.962677
ZMW 27.388649
ZWL 378.297809
  • AEX

    -7.0300

    906.3

    -0.77%

  • BEL20

    -9.2300

    4607.94

    -0.2%

  • PX1

    7.8200

    7826.03

    +0.1%

  • ISEQ

    10.4200

    11590.92

    +0.09%

  • OSEBX

    -2.1100

    1622.86

    -0.13%

  • PSI20

    -42.5500

    7694.23

    -0.55%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    32.1900

    2807.32

    +1.16%

  • N150

    -15.6300

    3705.72

    -0.42%

Des photos de nus générées par IA: quand la sextorsion vise les enfants
Des photos de nus générées par IA: quand la sextorsion vise les enfants / Photo: Stefani REYNOLDS - AFP/Archives

Des photos de nus générées par IA: quand la sextorsion vise les enfants

Après le suicide de leur fils dans l'Etat américain du Kentucky, les parents d'Elijah Heacock, 16 ans, ont découvert dans son téléphone un SMS de menace réclamant 3.000 dollars pour supprimer une photo de lui nu générée par intelligence artificielle.

Taille du texte:

Comme des milliers de mineurs américains, l'adolescent a été victime d'une arnaque à la sextorsion, une forme de chantage qui prolifère avec le développement d'outils d'intelligence artificielle (IA) permettant de déshabiller numériquement une personne ou de créer des photos sexualisées - des moyens souvent utilisés contre des célébrités, mais désormais de plus en plus employés contre des enfants.

"Les personnes qui en ont après nos enfants sont bien organisées", estime John Burnett, le père d'Elijah Heacock. "Ils sont bien financés et impitoyables. Ils n'ont pas besoin que la photo soit réelle, ils peuvent générer ce qu'ils veulent puis l'utiliser pour faire chanter nos enfants."

La mort de son fils a déclenché une enquête sur le chantage sexuel alimenté par l'IA.

Le FBI a récemment constaté une "augmentation effroyable" des cas de sextorsion visant les mineurs aux Etats-Unis, les victimes étant généralement des garçons entre 14 et 17 ans. Cette menace a entraîné "un nombre alarmant" de suicides, selon la police fédérale.

- Marché florissant -

Dans un récent sondage, Thorn, une ONG dédiée à la prévention de l'exploitation des enfants en ligne, a révélé que 6% des adolescents américains avaient été directement victimes de photos ou vidéos de nus générées par IA.

"Les auteurs n'ont plus besoin de trouver des photos intimes d'enfants, parce que des images suffisamment convaincantes pour être nuisibles - parfois encore plus nuisibles que de vraies images - peuvent être créées en utilisant l'IA générative", a déclaré dans un rapport publié l'an dernier l'organisation britannique Internet Watch Foundation (IWF), qui lutte contre les contenus d'exploitation sexuelle en ligne.

L'IWF a identifié un "guide du pédophile" qui encourage explicitement à utiliser des sites de déshabillage pour générer du contenu dans le but de faire chanter les enfants. L'auteur du guide affirme avoir ainsi réussi à prendre au piège plusieurs jeunes filles.

Ces outils sont un marché florissant: selon Indicator, une publication américaine enquêtant sur les fraudes numériques, ils pourraient générer ensemble jusqu'à 36 millions de dollars par an.

La plupart d'entre eux dépendent des infrastructures technologiques de Google, Amazon ou Cloudflare pour fonctionner, et restent rentables malgré les mesures de répression des plateformes technologiques et des régulateurs, affirme Indicator.

- Une lutte impossible -

La menace ne concerne pas que les Etats-Unis: un sondage récent de l'ONG Save the Children a démontré qu'un jeune sur cinq en Espagne avait été victime de fausses photos dénudées.

Des procureurs espagnols ont indiqué cette année qu'ils enquêtaient sur trois mineurs de la ville de Puertollano (centre), qui auraient visé leurs camarades de classe et leurs professeurs avec du contenu pornographique généré par IA qu'ils distribuaient dans leur école.

Au Royaume-Uni, le gouvernement a adopté cette année une loi criminalisant la création de "deepfakes" à caractère sexuellement explicite, les auteurs risquant jusqu'à deux ans de prison.

Un texte similaire a été ratifié en mai par le président américain Donald Trump.

Le groupe Meta (Facebook, Instagram, WhatsApp) a également annoncé avoir engagé une action en justice contre une entreprise hongkongaise derrière l'application de déshabillage Crush AI, qui, selon lui, contournerait ses règles pour poster des publicités sur ses plateformes.

Mais malgré de telles mesures, les chercheurs estiment que ces applications utilisant l'IA sont résilientes.

"De nouveaux outils de déshabillage continuent de surgir", souligne Indicator, qui les qualifie d'"adversaires malveillants et tenaces".

burs-ac/sia/blb/ph

(S.G.Stein--BBZ)