Berliner Boersenzeitung - Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux

EUR -
AED 4.404592
AFN 77.95771
ALL 96.649845
AMD 450.703033
ANG 2.14692
AOA 1099.79725
ARS 1730.352341
AUD 1.712339
AWG 2.160317
AZN 2.060793
BAM 1.955805
BBD 2.395796
BDT 145.360372
BGN 2.014141
BHD 0.452188
BIF 3523.523714
BMD 1.199343
BND 1.506491
BOB 8.220055
BRL 6.21895
BSD 1.189498
BTN 109.107734
BWP 15.656105
BYN 3.389495
BYR 23507.12421
BZD 2.392396
CAD 1.629218
CDF 2686.528468
CHF 0.918139
CLF 0.026129
CLP 1031.735581
CNY 8.341011
CNH 8.322218
COP 4383.251118
CRC 590.99905
CUC 1.199343
CUP 31.782591
CVE 110.265742
CZK 24.224391
DJF 211.829659
DKK 7.467224
DOP 74.83988
DZD 154.962167
EGP 56.455242
ERN 17.990146
ETB 184.948703
FJD 2.636575
FKP 0.875689
GBP 0.868762
GEL 3.232242
GGP 0.875689
GHS 13.002088
GIP 0.875689
GMD 87.551933
GNF 10433.809689
GTQ 9.127061
GYD 248.871675
HKD 9.356016
HNL 31.39195
HRK 7.533106
HTG 156.0017
HUF 380.07362
IDR 20032.62733
ILS 3.714858
IMP 0.875689
INR 109.951576
IQD 1558.297495
IRR 50522.327094
ISK 145.204438
JEP 0.875689
JMD 186.891258
JOD 0.850282
JPY 183.125291
KES 154.715286
KGS 104.881309
KHR 4783.052132
KMF 494.129028
KPW 1079.432046
KRW 1707.600986
KWD 0.367575
KYD 0.991298
KZT 599.279037
LAK 25630.958795
LBP 106522.928752
LKR 368.329408
LRD 220.060564
LSL 19.07469
LTL 3.541349
LVL 0.72547
LYD 7.507988
MAD 10.802673
MDL 20.055884
MGA 5340.03594
MKD 61.680901
MMK 2518.679665
MNT 4275.819284
MOP 9.558485
MRU 47.521924
MUR 54.07811
MVR 18.541691
MWK 2080.860365
MXN 20.601656
MYR 4.698427
MZN 76.470525
NAD 19.074769
NGN 1679.871938
NIO 43.773397
NOK 11.505118
NPR 174.570719
NZD 1.990436
OMR 0.46116
PAB 1.189508
PEN 3.986977
PGK 5.089395
PHP 70.427832
PKR 333.043041
PLN 4.19911
PYG 7972.987183
QAR 4.324429
RON 5.096852
RSD 117.394062
RUB 91.456378
RWF 1735.51168
SAR 4.497518
SBD 9.687905
SCR 16.672695
SDG 721.390251
SEK 10.560204
SGD 1.511112
SHP 0.899818
SLE 29.135652
SLL 25149.623668
SOS 678.604567
SRD 45.931218
STD 24823.980125
STN 24.501901
SVC 10.407983
SYP 13264.224528
SZL 19.069128
THB 37.135863
TJS 11.110328
TMT 4.197701
TND 3.430023
TOP 2.88773
TRY 52.050051
TTD 8.088987
TWD 37.499913
TZS 3048.399029
UAH 51.061344
UGX 4247.028584
USD 1.199343
UYU 44.570486
UZS 14391.976863
VES 429.935887
VND 31290.860746
VUV 143.618109
WST 3.273359
XAF 655.961415
XAG 0.010424
XAU 0.000228
XCD 3.241285
XCG 2.143797
XDR 0.815805
XOF 655.955945
XPF 119.331742
YER 285.923104
ZAR 19.008628
ZMK 10795.526408
ZMW 23.486962
ZWL 386.18798
  • AEX

    2.9000

    1001.68

    +0.29%

  • BEL20

    63.9900

    5396.81

    +1.2%

  • PX1

    21.9500

    8152.82

    +0.27%

  • ISEQ

    77.5700

    13006.09

    +0.6%

  • OSEBX

    6.0800

    1742.8

    +0.35%

  • PSI20

    77.1900

    8654.25

    +0.9%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    147.5100

    4211.2

    +3.63%

  • N150

    9.7600

    3912.09

    +0.25%

Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux
Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux / Photo: Chris Delmas - AFP

Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux

Lorsque des Philippins indignés ont utilisé un assistant virtuel ("chatbot") dopé à l'IA pour vérifier la photo virale d'un parlementaire impliqué dans un scandale de corruption, l'outil n'a pas détecté qu'elle était fabriquée. Il l'avait pourtant lui-même générée.

Taille du texte:

Les internautes se tournent de plus en plus vers des chatbots pour vérifier des images en temps réel. Mais ces outils échouent souvent, interrogeant sur leurs capacités à détecter les images factices, à un moment où les grandes plateformes réduisent la vérification humaine.

Dans de nombreux cas, ils identifient comme authentiques des images générées par l'IA, ce qui accentue la confusion dans un univers numérique saturé de faux visuels.

Les outils de vérification "sont principalement entraînés sur des schémas linguistiques et manquent de la compréhension visuelle nécessaire pour identifier correctement les images générées ou manipulées", explique Alon Yamin, PDG de Copyleaks, une plateforme de détection de contenus IA.

"Les chatbots donnent souvent des évaluations incohérentes ou trop générales, ce qui les rend peu fiables pour des tâches comme la vérification ou l'authentification."

Aux Philippines, une image fabriquée a ainsi circulé sur les réseaux sociaux impliquant Elizaldy Co, ex-député impliqué dans une vaste affaire de corruption concernant des projets fictifs de contrôle des inondations, qui auraient coûté des centaines de millions de dollars au contribuable.

La photo montrait l'ex-député au Portugal, alors qu'il aurait dû se trouver aux Philippines à la disposition de la justice. Lorsque des internautes ont interrogé l'assistant IA de Google pour savoir si la photo était authentique, l'IA a répondu à tort par l'affirmative.

Elizaldy Co n'est en réalité jamais réapparu en public depuis le début de l'enquête.

Les vérificateurs de l'AFP ont retrouvé le créateur de l'image et établi qu'elle avait été précisément générée par l'IA de Google.

Google n'a pas répondu aux sollicitations de l'AFP sur ce sujet.

- "Distinguable de la réalité" -

L'AFP a trouvé d'autres occurrences d'IA incapables de reconnaître leurs propres créations.

Lors des violentes manifestations du mois dernier au Cachemire pakistanais, des internautes ont partagé une image censée montrer des hommes marchant avec des drapeaux et des torches.

Une analyse de l'AFP a révélé qu'elle avait été créée avec le modèle Gemini de Google. Mais Gemini et Copilot (Microsoft) l'ont identifiée comme authentique.

"Ces modèles (d'IA) sont programmés uniquement pour bien imiter", explique à l'AFP Rossine Fallorina, du centre de recherche Sigla. "En un sens, ils ne peuvent que générer des choses qui imitent correctement. Ils ne peuvent pas déterminer si cette imitation est réellement distinguable de la réalité".

Plus tôt cette année, le Tow Center for Digital Journalism de l'université américaine Columbia a testé sept chatbots IA – dont ChatGPT, Perplexity, Gemini et Grok (une IA appartenant à Elon Musk) – sur 10 photos de photojournalistes.

Tous ont échoué à identifier correctement la provenance des images qui leur étaient soumises, selon l'étude.

- "Choqué" -

L'AFP a retrouvé l'auteur de la fausse photo d'Elizaldy Co, qui a dépassé le million de vues sur les réseaux: un développeur web philippin qui affirme l'avoir créée "pour s'amuser" avec Nano Banana, le générateur d'images IA de Gemini.

"Malheureusement, beaucoup de gens y ont cru", confie-t-il, sous couvert d'anonymat pour éviter les représailles. "J'ai modifié mon post en précisant +image générée par IA+ pour stopper la propagation, car j'étais choqué par le nombre de partages."

Ces cas montrent à quel point les photos générées par IA peuvent être indiscernables des images réelles. Et la tendance inquiète, alors que les internautes délaissent les moteurs de recherche traditionnels au profit des outils IA pour s'informer et vérifier des contenus.

Le géant américain Meta, qui contrôle Facebook et Instagram, a annoncé en début d'année la fin de son programme de fact-checking aux Etats-Unis pour le remplacer par un système de "notes de communauté", écrites par des utilisateurs, sur le modèle du réseau social X d'Elon Musk.

L'AFP collabore en revanche toujours avec Meta dans 26 langues, en Asie, Amérique latine et dans l'Union européenne.

Les chercheurs estiment que les modèles d'IA peuvent aider les fact-checkers professionnels à géolocaliser rapidement des images et repérer des indices visuels. Mais ils avertissent qu'ils ne peuvent pas remplacer le travail humain.

"On ne peut pas compter sur les outils IA pour combattre l'IA à long terme", insiste Rossine Fallorina.

(Y.Berger--BBZ)