Berliner Boersenzeitung - "C'est une photo de Gaza ?" : l'IA trompeuse pour vérifier des images

EUR -
AED 4.342732
AFN 76.851625
ALL 96.8448
AMD 446.569242
ANG 2.116458
AOA 1084.193374
ARS 1692.849758
AUD 1.683949
AWG 2.131143
AZN 2.014648
BAM 1.961367
BBD 2.38146
BDT 144.600444
BGN 1.985563
BHD 0.445802
BIF 3499.684954
BMD 1.182326
BND 1.505674
BOB 8.170191
BRL 6.168673
BSD 1.182356
BTN 107.098997
BWP 15.653432
BYN 3.396842
BYR 23173.589558
BZD 2.37795
CAD 1.614668
CDF 2636.587403
CHF 0.916646
CLF 0.025778
CLP 1017.853096
CNY 8.203037
CNH 8.193697
COP 4335.589434
CRC 586.161323
CUC 1.182326
CUP 31.331639
CVE 110.931785
CZK 24.219598
DJF 210.123441
DKK 7.46834
DOP 74.480674
DZD 153.6173
EGP 55.402973
ERN 17.73489
ETB 183.438342
FJD 2.642204
FKP 0.872562
GBP 0.86807
GEL 3.186416
GGP 0.872562
GHS 12.994224
GIP 0.872562
GMD 86.310218
GNF 10357.771454
GTQ 9.068741
GYD 247.372159
HKD 9.237755
HNL 31.278481
HRK 7.535441
HTG 154.88965
HUF 378.072843
IDR 19928.104694
ILS 3.677832
IMP 0.872562
INR 107.126071
IQD 1549.43822
IRR 49805.482845
ISK 145.000916
JEP 0.872562
JMD 185.055274
JOD 0.838316
JPY 185.749373
KES 152.520469
KGS 103.394863
KHR 4768.321164
KMF 495.395007
KPW 1064.09605
KRW 1729.707918
KWD 0.363258
KYD 0.985297
KZT 584.998026
LAK 25420.009366
LBP 101147.989527
LKR 365.796756
LRD 220.090436
LSL 19.276371
LTL 3.491102
LVL 0.715178
LYD 7.478258
MAD 10.85971
MDL 20.159221
MGA 5249.52784
MKD 61.645313
MMK 2482.893428
MNT 4233.559595
MOP 9.514908
MRU 47.116139
MUR 54.44656
MVR 18.267384
MWK 2053.700666
MXN 20.403618
MYR 4.667237
MZN 75.373728
NAD 19.27632
NGN 1616.216438
NIO 43.395765
NOK 11.432372
NPR 171.357669
NZD 1.963755
OMR 0.454612
PAB 1.182356
PEN 3.981487
PGK 5.043848
PHP 69.187398
PKR 330.700958
PLN 4.218344
PYG 7812.17463
QAR 4.305263
RON 5.09181
RSD 117.379006
RUB 91.040662
RWF 1717.919675
SAR 4.433973
SBD 9.527359
SCR 16.236966
SDG 711.173434
SEK 10.658072
SGD 1.502977
SHP 0.887051
SLE 28.908309
SLL 24792.784145
SOS 675.703638
SRD 44.71325
STD 24471.761048
STN 24.887962
SVC 10.345365
SYP 13076.022923
SZL 19.276228
THB 37.260417
TJS 11.078747
TMT 4.144053
TND 3.366678
TOP 2.846757
TRY 51.552299
TTD 8.006693
TWD 37.371201
TZS 3044.48984
UAH 50.787117
UGX 4206.94128
USD 1.182326
UYU 45.700299
UZS 14513.052018
VES 446.90164
VND 30681.359644
VUV 141.864957
WST 3.223392
XAF 657.824215
XAG 0.015273
XAU 0.000238
XCD 3.195296
XCG 2.13094
XDR 0.818462
XOF 655.604014
XPF 119.331742
YER 281.870761
ZAR 18.936784
ZMK 10642.35701
ZMW 22.021507
ZWL 380.708489
  • AEX

    10.2500

    995.35

    +1.04%

  • BEL20

    -7.7400

    5517.52

    -0.14%

  • PX1

    35.4300

    8273.84

    +0.43%

  • ISEQ

    95.0400

    13295.1

    +0.72%

  • OSEBX

    49.1200

    1816.11

    +2.78%

  • PSI20

    111.4900

    8890.3

    +1.27%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -84.1400

    4000.2

    -2.06%

  • N150

    35.3800

    4010.68

    +0.89%

"C'est une photo de Gaza ?" : l'IA trompeuse pour vérifier des images
"C'est une photo de Gaza ?" : l'IA trompeuse pour vérifier des images / Photo: Omar AL-QATTAA - AFP

"C'est une photo de Gaza ?" : l'IA trompeuse pour vérifier des images

"Grok, c'est vrai?" : les internautes recourent de plus en plus aux chatbots conversationnels pour vérifier des informations, au risque d'être trompés par les erreurs des IA, comme l'illustrent les vifs échanges déclenchés sur X par le partage de la photo d'une fillette dénutrie à Gaza.

Taille du texte:

Début août, quand le député français apparenté LFI Aymeric Caron, soutien notoire de la cause palestinienne, publie sur le réseau social X cette image sans légende, alors que la bande de Gaza est menacée d’une "famine généralisée" selon l'ONU, plusieurs utilisateurs demandent rapidement à Grok d'en vérifier l'origine.

Le robot conversationnel intégré à X est formel: cette photo a été prise selon lui en octobre 2018 au Yémen et montrerait Amal Hussain, une fillette de 7 ans. Sa réponse est largement relayée. Et le député accusé de faire de la désinformation.

Mais Grok se trompe : la photo a bien été prise à Gaza, le 2 août, par Omar al-Qattaa, photojournaliste pour l'AFP.

Le cliché montre Mariam Dawwas, 9 ans, dans les bras de sa mère Modallala à Gaza-ville, qui a expliqué à l'AFP que sa fille pesait 25 kilos avant la guerre, contre 9 aujourd'hui. Comme soutien médical, elle reçoit "seulement du lait, et il n'est pas toujours disponible. Ce n'est pas suffisant pour qu'elle se rétablisse", a-t-elle dit.

Interpellé sur l'inexactitude de sa réponse, Grok affirme: "Je ne propage pas de fake news ; je m'appuie sur des sources vérifiées". Il finit par admettre son erreur mais il la reproduit dès le lendemain, en réponses à de nouvelles questions d'utilisateurs de X.

- Des "boîtes noires" -

Cette séquence illustre les limites des outils d'intelligence artificielle, qui fonctionnent comme "des boîtes noires", souligne Louis de Diesbach, chercheur en éthique de la technique et auteur de Bonjour ChatGPT.

"On ne sait pas précisément pourquoi ils donnent telle ou telle réponse, ni comment ils priorisent leurs sources", souligne l'expert, expliquant que ces outils ont des biais liés à leurs données d'entraînement mais aussi aux consignes de leurs concepteurs.

Le robot conversationnel d'xAI, la start-up d'Elon Musk, présente selon l'expert "des biais encore plus prononcés et qui sont très alignés sur l'idéologie promue, entre autres," par le milliardaire sud-africain, proche des idées de la droite radicale américaine.

Interroger un chatbot sur l'origine d'une image revient à le faire sortir de son rôle, pointe M. de Diesbach : "Typiquement, quand vous cherchez l'origine d'une image, il peut dire +cette photo aurait pu être prise au Yémen, aurait pu être prise à Gaza, aurait pu être prise dans à peu près n'importe quel pays où il y a une famine+".

"Un modèle de langage ne cherche pas à créer des choses exactes, ce n'est pas le but", insiste l'expert.

Récemment, une autre photographie de l'AFP, du même Omar al-Qattaa, publiée par le quotidien Libération et montrant déjà un enfant souffrant de malnutrition à Gaza, avait déjà été faussement située au Yémen et datée de 2016 par Grok. Alors qu'elle a bien été prise en juillet 2025 à Gaza.

L'erreur de l'IA avait conduit des internautes à accuser à tort le journal de manipulation.

- Pas seulement Grok -

Les biais des IA sont liés à leurs données d'entraînement, qui conditionnent la base des connaissances du modèle, et à la phase dite d'alignement, qui détermine ce que le modèle va considérer comme une "bonne" ou une "mauvaise" réponse.

Et "ce n'est pas parce qu'on lui a expliqué qu'en fait, c'était faux, que du jour au lendemain, il va (changer sa réponse) parce que ses données d'entraînement n'ont pas changé, son alignement non plus", ajoute M. de Diesbach.

Les erreurs ne sont pas propres à Grok : interrogé par l'AFP sur l'origine de la photo de Mariam Dawwas, l’agent conversationnel de Mistral AI - start-up qui, en tant que partenaire de l’AFP, peut intégrer les dépêches de l'agence aux réponses de son chatbot - a lui aussi indiqué à tort qu'elle avait été prise au Yémen.

Pour Louis de Diesbach, les agents conversationnels ne doivent pas être utilisés pour vérifier des faits, à la manière d'un moteur de recherche, car "ils ne sont pas faits pour dire la vérité" mais pour "générer du contenu, qu’il soit vrai ou faux."

"Il faut le voir comme un ami mythomane : il ne ment pas toujours, mais il peut toujours mentir", conclut l’expert.

(K.Lüdke--BBZ)