The Prague Post - "C'est une photo de Gaza ?" : l'IA trompeuse pour vérifier des images

EUR -
AED 4.371967
AFN 77.96724
ALL 96.488757
AMD 447.445981
ANG 2.131021
AOA 1091.049708
ARS 1686.293235
AUD 1.682726
AWG 2.14283
AZN 2.010293
BAM 1.955572
BBD 2.390321
BDT 145.043099
BGN 1.999225
BHD 0.448782
BIF 3511.690795
BMD 1.190461
BND 1.506025
BOB 8.218042
BRL 6.183852
BSD 1.186762
BTN 107.589011
BWP 15.640178
BYN 3.420401
BYR 23333.041082
BZD 2.386822
CAD 1.614682
CDF 2636.871372
CHF 0.912367
CLF 0.025773
CLP 1016.451184
CNY 8.240971
CNH 8.227338
COP 4372.659517
CRC 588.331444
CUC 1.190461
CUP 31.547224
CVE 110.25169
CZK 24.242256
DJF 211.335374
DKK 7.471341
DOP 74.711294
DZD 154.161137
EGP 55.804663
ERN 17.856919
ETB 185.11203
FJD 2.609616
FKP 0.871086
GBP 0.871257
GEL 3.203018
GGP 0.871086
GHS 13.060478
GIP 0.871086
GMD 87.493695
GNF 10418.82969
GTQ 9.103901
GYD 248.291068
HKD 9.306478
HNL 31.349347
HRK 7.535382
HTG 155.631865
HUF 377.719071
IDR 19997.368577
ILS 3.670609
IMP 0.871086
INR 107.784242
IQD 1554.718834
IRR 50148.181596
ISK 144.986303
JEP 0.871086
JMD 185.628369
JOD 0.844062
JPY 184.791699
KES 153.447467
KGS 104.106084
KHR 4786.442253
KMF 492.851202
KPW 1071.418786
KRW 1740.570689
KWD 0.365579
KYD 0.988985
KZT 586.091705
LAK 25505.027988
LBP 106629.710152
LKR 367.317198
LRD 220.74335
LSL 19.021583
LTL 3.515123
LVL 0.720098
LYD 7.503126
MAD 10.854035
MDL 20.157651
MGA 5210.392851
MKD 61.635066
MMK 2500.144183
MNT 4250.572
MOP 9.554487
MRU 47.126509
MUR 54.379774
MVR 18.404276
MWK 2057.860205
MXN 20.467345
MYR 4.670775
MZN 75.903568
NAD 19.021583
NGN 1613.003636
NIO 43.674911
NOK 11.330066
NPR 172.142941
NZD 1.969779
OMR 0.457729
PAB 1.186762
PEN 3.985836
PGK 5.163398
PHP 69.668766
PKR 331.85523
PLN 4.213548
PYG 7825.08817
QAR 4.326178
RON 5.091368
RSD 117.319694
RUB 91.96356
RWF 1732.698095
SAR 4.465111
SBD 9.589021
SCR 16.471854
SDG 716.062345
SEK 10.624486
SGD 1.507159
SHP 0.893154
SLE 29.196065
SLL 24963.376932
SOS 677.021109
SRD 45.203599
STD 24640.144958
STN 24.497145
SVC 10.38479
SYP 13165.995682
SZL 19.012785
THB 37.099564
TJS 11.114258
TMT 4.166614
TND 3.428186
TOP 2.866345
TRY 51.940418
TTD 8.040063
TWD 37.518613
TZS 3078.648294
UAH 51.158839
UGX 4224.507733
USD 1.190461
UYU 45.504506
UZS 14601.175925
VES 458.078084
VND 30815.090225
VUV 142.617931
WST 3.230545
XAF 655.880573
XAG 0.01452
XAU 0.000236
XCD 3.217281
XCG 2.138851
XDR 0.815705
XOF 655.880573
XPF 119.331742
YER 283.746032
ZAR 18.957384
ZMK 10715.574506
ZMW 22.436386
ZWL 383.328046
  • AEX

    6.4900

    1005.49

    +0.65%

  • BEL20

    6.1300

    5582.53

    +0.11%

  • PX1

    20.8100

    8344.31

    +0.25%

  • ISEQ

    -173.3500

    13264.45

    -1.29%

  • OSEBX

    2.3700

    1825.59

    +0.13%

  • PSI20

    -59.3400

    8931.73

    -0.66%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    46.0000

    4046.13

    +1.15%

  • N150

    17.8400

    4071.58

    +0.44%

"C'est une photo de Gaza ?" : l'IA trompeuse pour vérifier des images
"C'est une photo de Gaza ?" : l'IA trompeuse pour vérifier des images / Photo: Omar AL-QATTAA - AFP

"C'est une photo de Gaza ?" : l'IA trompeuse pour vérifier des images

"Grok, c'est vrai?" : les internautes recourent de plus en plus aux chatbots conversationnels pour vérifier des informations, au risque d'être trompés par les erreurs des IA, comme l'illustrent les vifs échanges déclenchés sur X par le partage de la photo d'une fillette dénutrie à Gaza.

Taille du texte:

Début août, quand le député français apparenté LFI Aymeric Caron, soutien notoire de la cause palestinienne, publie sur le réseau social X cette image sans légende, alors que la bande de Gaza est menacée d’une "famine généralisée" selon l'ONU, plusieurs utilisateurs demandent rapidement à Grok d'en vérifier l'origine.

Le robot conversationnel intégré à X est formel: cette photo a été prise selon lui en octobre 2018 au Yémen et montrerait Amal Hussain, une fillette de 7 ans. Sa réponse est largement relayée. Et le député accusé de faire de la désinformation.

Mais Grok se trompe : la photo a bien été prise à Gaza, le 2 août, par Omar al-Qattaa, photojournaliste pour l'AFP.

Le cliché montre Mariam Dawwas, 9 ans, dans les bras de sa mère Modallala à Gaza-ville, qui a expliqué à l'AFP que sa fille pesait 25 kilos avant la guerre, contre 9 aujourd'hui. Comme soutien médical, elle reçoit "seulement du lait, et il n'est pas toujours disponible. Ce n'est pas suffisant pour qu'elle se rétablisse", a-t-elle dit.

Interpellé sur l'inexactitude de sa réponse, Grok affirme: "Je ne propage pas de fake news ; je m'appuie sur des sources vérifiées". Il finit par admettre son erreur mais il la reproduit dès le lendemain, en réponses à de nouvelles questions d'utilisateurs de X.

- Des "boîtes noires" -

Cette séquence illustre les limites des outils d'intelligence artificielle, qui fonctionnent comme "des boîtes noires", souligne Louis de Diesbach, chercheur en éthique de la technique et auteur de Bonjour ChatGPT.

"On ne sait pas précisément pourquoi ils donnent telle ou telle réponse, ni comment ils priorisent leurs sources", souligne l'expert, expliquant que ces outils ont des biais liés à leurs données d'entraînement mais aussi aux consignes de leurs concepteurs.

Le robot conversationnel d'xAI, la start-up d'Elon Musk, présente selon l'expert "des biais encore plus prononcés et qui sont très alignés sur l'idéologie promue, entre autres," par le milliardaire sud-africain, proche des idées de la droite radicale américaine.

Interroger un chatbot sur l'origine d'une image revient à le faire sortir de son rôle, pointe M. de Diesbach : "Typiquement, quand vous cherchez l'origine d'une image, il peut dire +cette photo aurait pu être prise au Yémen, aurait pu être prise à Gaza, aurait pu être prise dans à peu près n'importe quel pays où il y a une famine+".

"Un modèle de langage ne cherche pas à créer des choses exactes, ce n'est pas le but", insiste l'expert.

Récemment, une autre photographie de l'AFP, du même Omar al-Qattaa, publiée par le quotidien Libération et montrant déjà un enfant souffrant de malnutrition à Gaza, avait déjà été faussement située au Yémen et datée de 2016 par Grok. Alors qu'elle a bien été prise en juillet 2025 à Gaza.

L'erreur de l'IA avait conduit des internautes à accuser à tort le journal de manipulation.

- Pas seulement Grok -

Les biais des IA sont liés à leurs données d'entraînement, qui conditionnent la base des connaissances du modèle, et à la phase dite d'alignement, qui détermine ce que le modèle va considérer comme une "bonne" ou une "mauvaise" réponse.

Et "ce n'est pas parce qu'on lui a expliqué qu'en fait, c'était faux, que du jour au lendemain, il va (changer sa réponse) parce que ses données d'entraînement n'ont pas changé, son alignement non plus", ajoute M. de Diesbach.

Les erreurs ne sont pas propres à Grok : interrogé par l'AFP sur l'origine de la photo de Mariam Dawwas, l’agent conversationnel de Mistral AI - start-up qui, en tant que partenaire de l’AFP, peut intégrer les dépêches de l'agence aux réponses de son chatbot - a lui aussi indiqué à tort qu'elle avait été prise au Yémen.

Pour Louis de Diesbach, les agents conversationnels ne doivent pas être utilisés pour vérifier des faits, à la manière d'un moteur de recherche, car "ils ne sont pas faits pour dire la vérité" mais pour "générer du contenu, qu’il soit vrai ou faux."

"Il faut le voir comme un ami mythomane : il ne ment pas toujours, mais il peut toujours mentir", conclut l’expert.

V.Nemec--TPP