Berliner Boersenzeitung - Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux

EUR -
AED 4.21081
AFN 73.380876
ALL 95.821367
AMD 434.905178
ANG 2.052472
AOA 1051.413124
ARS 1598.904666
AUD 1.629082
AWG 2.063842
AZN 1.94815
BAM 1.953805
BBD 2.323693
BDT 141.535462
BGN 1.959858
BHD 0.432824
BIF 3420.777931
BMD 1.146579
BND 1.473185
BOB 7.971763
BRL 6.019431
BSD 1.153753
BTN 106.983876
BWP 15.64616
BYN 3.516599
BYR 22472.950295
BZD 2.320396
CAD 1.57407
CDF 2602.734703
CHF 0.909206
CLF 0.026588
CLP 1049.842202
CNY 7.880495
CNH 7.914451
COP 4251.916593
CRC 538.855456
CUC 1.146579
CUP 30.384346
CVE 110.164988
CZK 24.455843
DJF 205.451403
DKK 7.472726
DOP 69.752456
DZD 152.054803
EGP 59.895114
ERN 17.198686
ETB 180.146883
FJD 2.544033
FKP 0.859302
GBP 0.864354
GEL 3.112902
GGP 0.859302
GHS 12.576583
GIP 0.859302
GMD 84.846638
GNF 10111.658098
GTQ 8.836977
GYD 241.360884
HKD 8.986944
HNL 30.535809
HRK 7.531859
HTG 151.205259
HUF 393.429124
IDR 19487.258327
ILS 3.571474
IMP 0.859302
INR 107.05179
IQD 1511.228056
IRR 1507751.511799
ISK 143.216573
JEP 0.859302
JMD 181.150555
JOD 0.812866
JPY 183.156266
KES 148.539438
KGS 100.2684
KHR 4620.188443
KMF 490.735959
KPW 1031.896421
KRW 1719.633639
KWD 0.351839
KYD 0.961378
KZT 556.553574
LAK 24756.252748
LBP 103330.654412
LKR 359.238936
LRD 211.11834
LSL 19.257861
LTL 3.385549
LVL 0.693554
LYD 7.361959
MAD 10.796099
MDL 20.115493
MGA 4805.056884
MKD 61.648715
MMK 2407.934705
MNT 4094.550606
MOP 9.313745
MRU 46.048011
MUR 53.327419
MVR 17.726477
MWK 2000.558306
MXN 20.431294
MYR 4.515167
MZN 73.268833
NAD 19.257861
NGN 1563.566729
NIO 42.454976
NOK 10.999878
NPR 171.188773
NZD 1.971474
OMR 0.440833
PAB 1.153653
PEN 3.939777
PGK 4.977893
PHP 68.883603
PKR 322.29402
PLN 4.274842
PYG 7456.88075
QAR 4.195092
RON 5.092302
RSD 117.454414
RUB 96.173121
RWF 1684.110645
SAR 4.305014
SBD 9.224504
SCR 16.621753
SDG 689.093572
SEK 10.790324
SGD 1.471256
SHP 0.860231
SLE 28.263454
SLL 24043.20278
SOS 659.356045
SRD 42.853431
STD 23731.872367
STN 24.479805
SVC 10.094188
SYP 126.795321
SZL 19.263192
THB 37.591168
TJS 11.034483
TMT 4.013027
TND 3.394818
TOP 2.760687
TRY 50.815525
TTD 7.820446
TWD 36.667914
TZS 2982.515766
UAH 50.737264
UGX 4340.059947
USD 1.146579
UYU 46.717588
UZS 14068.228386
VES 517.041634
VND 30172.228929
VUV 137.122676
WST 3.134408
XAF 655.416296
XAG 0.015356
XAU 0.000237
XCD 3.098687
XCG 2.079131
XDR 0.815131
XOF 655.419151
XPF 119.331742
YER 273.545132
ZAR 19.480092
ZMK 10320.594636
ZMW 22.561486
ZWL 369.198001
  • AEX

    -12.8600

    999.98

    -1.27%

  • BEL20

    -37.7200

    5129.08

    -0.73%

  • PX1

    -4.7800

    7969.88

    -0.06%

  • ISEQ

    117.6200

    12369.92

    +0.96%

  • OSEBX

    13.6100

    1986.11

    +0.69%

  • PSI20

    -40.3700

    9134.62

    -0.44%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -88.6400

    3699.3

    -2.34%

  • N150

    9.7200

    3898.6

    +0.25%

Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux
Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux / Photo: Chris Delmas - AFP

Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux

Lorsque des Philippins indignés ont utilisé un assistant virtuel ("chatbot") dopé à l'IA pour vérifier la photo virale d'un parlementaire impliqué dans un scandale de corruption, l'outil n'a pas détecté qu'elle était fabriquée. Il l'avait pourtant lui-même générée.

Taille du texte:

Les internautes se tournent de plus en plus vers des chatbots pour vérifier des images en temps réel. Mais ces outils échouent souvent, interrogeant sur leurs capacités à détecter les images factices, à un moment où les grandes plateformes réduisent la vérification humaine.

Dans de nombreux cas, ils identifient comme authentiques des images générées par l'IA, ce qui accentue la confusion dans un univers numérique saturé de faux visuels.

Les outils de vérification "sont principalement entraînés sur des schémas linguistiques et manquent de la compréhension visuelle nécessaire pour identifier correctement les images générées ou manipulées", explique Alon Yamin, PDG de Copyleaks, une plateforme de détection de contenus IA.

"Les chatbots donnent souvent des évaluations incohérentes ou trop générales, ce qui les rend peu fiables pour des tâches comme la vérification ou l'authentification."

Aux Philippines, une image fabriquée a ainsi circulé sur les réseaux sociaux impliquant Elizaldy Co, ex-député impliqué dans une vaste affaire de corruption concernant des projets fictifs de contrôle des inondations, qui auraient coûté des centaines de millions de dollars au contribuable.

La photo montrait l'ex-député au Portugal, alors qu'il aurait dû se trouver aux Philippines à la disposition de la justice. Lorsque des internautes ont interrogé l'assistant IA de Google pour savoir si la photo était authentique, l'IA a répondu à tort par l'affirmative.

Elizaldy Co n'est en réalité jamais réapparu en public depuis le début de l'enquête.

Les vérificateurs de l'AFP ont retrouvé le créateur de l'image et établi qu'elle avait été précisément générée par l'IA de Google.

Google n'a pas répondu aux sollicitations de l'AFP sur ce sujet.

- "Distinguable de la réalité" -

L'AFP a trouvé d'autres occurrences d'IA incapables de reconnaître leurs propres créations.

Lors des violentes manifestations du mois dernier au Cachemire pakistanais, des internautes ont partagé une image censée montrer des hommes marchant avec des drapeaux et des torches.

Une analyse de l'AFP a révélé qu'elle avait été créée avec le modèle Gemini de Google. Mais Gemini et Copilot (Microsoft) l'ont identifiée comme authentique.

"Ces modèles (d'IA) sont programmés uniquement pour bien imiter", explique à l'AFP Rossine Fallorina, du centre de recherche Sigla. "En un sens, ils ne peuvent que générer des choses qui imitent correctement. Ils ne peuvent pas déterminer si cette imitation est réellement distinguable de la réalité".

Plus tôt cette année, le Tow Center for Digital Journalism de l'université américaine Columbia a testé sept chatbots IA – dont ChatGPT, Perplexity, Gemini et Grok (une IA appartenant à Elon Musk) – sur 10 photos de photojournalistes.

Tous ont échoué à identifier correctement la provenance des images qui leur étaient soumises, selon l'étude.

- "Choqué" -

L'AFP a retrouvé l'auteur de la fausse photo d'Elizaldy Co, qui a dépassé le million de vues sur les réseaux: un développeur web philippin qui affirme l'avoir créée "pour s'amuser" avec Nano Banana, le générateur d'images IA de Gemini.

"Malheureusement, beaucoup de gens y ont cru", confie-t-il, sous couvert d'anonymat pour éviter les représailles. "J'ai modifié mon post en précisant +image générée par IA+ pour stopper la propagation, car j'étais choqué par le nombre de partages."

Ces cas montrent à quel point les photos générées par IA peuvent être indiscernables des images réelles. Et la tendance inquiète, alors que les internautes délaissent les moteurs de recherche traditionnels au profit des outils IA pour s'informer et vérifier des contenus.

Le géant américain Meta, qui contrôle Facebook et Instagram, a annoncé en début d'année la fin de son programme de fact-checking aux Etats-Unis pour le remplacer par un système de "notes de communauté", écrites par des utilisateurs, sur le modèle du réseau social X d'Elon Musk.

L'AFP collabore en revanche toujours avec Meta dans 26 langues, en Asie, Amérique latine et dans l'Union européenne.

Les chercheurs estiment que les modèles d'IA peuvent aider les fact-checkers professionnels à géolocaliser rapidement des images et repérer des indices visuels. Mais ils avertissent qu'ils ne peuvent pas remplacer le travail humain.

"On ne peut pas compter sur les outils IA pour combattre l'IA à long terme", insiste Rossine Fallorina.

(Y.Berger--BBZ)