Berliner Boersenzeitung - "C'est une photo de Gaza ?" : l'IA trompeuse pour vérifier des images

EUR -
AED 4.314099
AFN 76.936429
ALL 96.605599
AMD 448.400944
ANG 2.102883
AOA 1077.044807
ARS 1691.556453
AUD 1.764619
AWG 2.114155
AZN 2.001365
BAM 1.959379
BBD 2.366212
BDT 143.572249
BGN 1.956545
BHD 0.440843
BIF 3482.482632
BMD 1.17453
BND 1.517265
BOB 8.117793
BRL 6.365607
BSD 1.174841
BTN 106.244614
BWP 15.566367
BYN 3.463412
BYR 23020.795811
BZD 2.362806
CAD 1.618562
CDF 2630.948518
CHF 0.934916
CLF 0.027253
CLP 1069.11676
CNY 8.28573
CNH 8.284609
COP 4467.326371
CRC 587.670939
CUC 1.17453
CUP 31.125056
CVE 110.728901
CZK 24.276491
DJF 208.738004
DKK 7.472132
DOP 74.994227
DZD 152.329593
EGP 55.571073
ERN 17.617956
ETB 182.316528
FJD 2.660605
FKP 0.879936
GBP 0.878351
GEL 3.175767
GGP 0.879936
GHS 13.489529
GIP 0.879936
GMD 85.741137
GNF 10207.844111
GTQ 8.998437
GYD 245.78791
HKD 9.137671
HNL 30.777205
HRK 7.537789
HTG 153.990624
HUF 385.234681
IDR 19536.845016
ILS 3.785271
IMP 0.879936
INR 106.356551
IQD 1538.634822
IRR 49474.161194
ISK 148.465122
JEP 0.879936
JMD 188.10359
JOD 0.832789
JPY 182.940203
KES 151.401433
KGS 102.713135
KHR 4705.169188
KMF 492.719958
KPW 1057.060817
KRW 1732.409297
KWD 0.360233
KYD 0.979084
KZT 612.71658
LAK 25463.81945
LBP 105179.197597
LKR 363.02155
LRD 207.92129
LSL 19.826521
LTL 3.468083
LVL 0.710462
LYD 6.366402
MAD 10.795403
MDL 19.860192
MGA 5297.132504
MKD 61.543973
MMK 2466.385496
MNT 4167.553805
MOP 9.420668
MRU 46.676283
MUR 53.915339
MVR 18.092159
MWK 2039.576425
MXN 21.158465
MYR 4.812408
MZN 75.064681
NAD 19.826516
NGN 1706.088063
NIO 43.193401
NOK 11.906572
NPR 169.991784
NZD 2.023657
OMR 0.449616
PAB 1.174841
PEN 4.232665
PGK 5.002564
PHP 69.43241
PKR 329.132826
PLN 4.225315
PYG 7891.414466
QAR 4.276587
RON 5.092651
RSD 117.424033
RUB 93.579038
RWF 1704.243608
SAR 4.407202
SBD 9.603843
SCR 17.568707
SDG 706.484352
SEK 10.887784
SGD 1.517538
SHP 0.881202
SLE 28.335591
SLL 24629.319496
SOS 671.248424
SRD 45.275842
STD 24310.407882
STN 24.958771
SVC 10.279733
SYP 12986.886804
SZL 19.826507
THB 37.021631
TJS 10.796675
TMT 4.122602
TND 3.424975
TOP 2.827988
TRY 50.147872
TTD 7.972529
TWD 36.804032
TZS 2901.090478
UAH 49.639761
UGX 4175.627205
USD 1.17453
UYU 46.104017
UZS 14097.305357
VES 314.116117
VND 30897.196663
VUV 142.580188
WST 3.259869
XAF 657.154562
XAG 0.018954
XAU 0.000273
XCD 3.174228
XCG 2.117359
XDR 0.816516
XOF 655.388352
XPF 119.331742
YER 280.129715
ZAR 19.820676
ZMK 10572.187233
ZMW 27.109403
ZWL 378.198309
  • AEX

    -7.3900

    939.59

    -0.78%

  • BEL20

    -14.0000

    4986.02

    -0.28%

  • PX1

    -16.9800

    8068.62

    -0.21%

  • ISEQ

    -56.8500

    12863.03

    -0.44%

  • OSEBX

    1.6400

    1642.81

    +0.1%

  • PSI20

    7.1900

    8001.36

    +0.09%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -67.9300

    4286.65

    -1.56%

  • N150

    0.3700

    3695.55

    +0.01%

"C'est une photo de Gaza ?" : l'IA trompeuse pour vérifier des images
"C'est une photo de Gaza ?" : l'IA trompeuse pour vérifier des images / Photo: Omar AL-QATTAA - AFP

"C'est une photo de Gaza ?" : l'IA trompeuse pour vérifier des images

"Grok, c'est vrai?" : les internautes recourent de plus en plus aux chatbots conversationnels pour vérifier des informations, au risque d'être trompés par les erreurs des IA, comme l'illustrent les vifs échanges déclenchés sur X par le partage de la photo d'une fillette dénutrie à Gaza.

Taille du texte:

Début août, quand le député français apparenté LFI Aymeric Caron, soutien notoire de la cause palestinienne, publie sur le réseau social X cette image sans légende, alors que la bande de Gaza est menacée d’une "famine généralisée" selon l'ONU, plusieurs utilisateurs demandent rapidement à Grok d'en vérifier l'origine.

Le robot conversationnel intégré à X est formel: cette photo a été prise selon lui en octobre 2018 au Yémen et montrerait Amal Hussain, une fillette de 7 ans. Sa réponse est largement relayée. Et le député accusé de faire de la désinformation.

Mais Grok se trompe : la photo a bien été prise à Gaza, le 2 août, par Omar al-Qattaa, photojournaliste pour l'AFP.

Le cliché montre Mariam Dawwas, 9 ans, dans les bras de sa mère Modallala à Gaza-ville, qui a expliqué à l'AFP que sa fille pesait 25 kilos avant la guerre, contre 9 aujourd'hui. Comme soutien médical, elle reçoit "seulement du lait, et il n'est pas toujours disponible. Ce n'est pas suffisant pour qu'elle se rétablisse", a-t-elle dit.

Interpellé sur l'inexactitude de sa réponse, Grok affirme: "Je ne propage pas de fake news ; je m'appuie sur des sources vérifiées". Il finit par admettre son erreur mais il la reproduit dès le lendemain, en réponses à de nouvelles questions d'utilisateurs de X.

- Des "boîtes noires" -

Cette séquence illustre les limites des outils d'intelligence artificielle, qui fonctionnent comme "des boîtes noires", souligne Louis de Diesbach, chercheur en éthique de la technique et auteur de Bonjour ChatGPT.

"On ne sait pas précisément pourquoi ils donnent telle ou telle réponse, ni comment ils priorisent leurs sources", souligne l'expert, expliquant que ces outils ont des biais liés à leurs données d'entraînement mais aussi aux consignes de leurs concepteurs.

Le robot conversationnel d'xAI, la start-up d'Elon Musk, présente selon l'expert "des biais encore plus prononcés et qui sont très alignés sur l'idéologie promue, entre autres," par le milliardaire sud-africain, proche des idées de la droite radicale américaine.

Interroger un chatbot sur l'origine d'une image revient à le faire sortir de son rôle, pointe M. de Diesbach : "Typiquement, quand vous cherchez l'origine d'une image, il peut dire +cette photo aurait pu être prise au Yémen, aurait pu être prise à Gaza, aurait pu être prise dans à peu près n'importe quel pays où il y a une famine+".

"Un modèle de langage ne cherche pas à créer des choses exactes, ce n'est pas le but", insiste l'expert.

Récemment, une autre photographie de l'AFP, du même Omar al-Qattaa, publiée par le quotidien Libération et montrant déjà un enfant souffrant de malnutrition à Gaza, avait déjà été faussement située au Yémen et datée de 2016 par Grok. Alors qu'elle a bien été prise en juillet 2025 à Gaza.

L'erreur de l'IA avait conduit des internautes à accuser à tort le journal de manipulation.

- Pas seulement Grok -

Les biais des IA sont liés à leurs données d'entraînement, qui conditionnent la base des connaissances du modèle, et à la phase dite d'alignement, qui détermine ce que le modèle va considérer comme une "bonne" ou une "mauvaise" réponse.

Et "ce n'est pas parce qu'on lui a expliqué qu'en fait, c'était faux, que du jour au lendemain, il va (changer sa réponse) parce que ses données d'entraînement n'ont pas changé, son alignement non plus", ajoute M. de Diesbach.

Les erreurs ne sont pas propres à Grok : interrogé par l'AFP sur l'origine de la photo de Mariam Dawwas, l’agent conversationnel de Mistral AI - start-up qui, en tant que partenaire de l’AFP, peut intégrer les dépêches de l'agence aux réponses de son chatbot - a lui aussi indiqué à tort qu'elle avait été prise au Yémen.

Pour Louis de Diesbach, les agents conversationnels ne doivent pas être utilisés pour vérifier des faits, à la manière d'un moteur de recherche, car "ils ne sont pas faits pour dire la vérité" mais pour "générer du contenu, qu’il soit vrai ou faux."

"Il faut le voir comme un ami mythomane : il ne ment pas toujours, mais il peut toujours mentir", conclut l’expert.

(K.Lüdke--BBZ)