The Prague Post - "C'est une photo de Gaza ?" : l'IA trompeuse pour vérifier des images

EUR -
AED 4.300909
AFN 77.619277
ALL 96.366953
AMD 446.668392
ANG 2.096761
AOA 1073.908745
ARS 1698.982413
AUD 1.773215
AWG 2.108
AZN 1.995247
BAM 1.953475
BBD 2.357934
BDT 143.170826
BGN 1.9551
BHD 0.441474
BIF 3461.239669
BMD 1.171111
BND 1.51152
BOB 8.089441
BRL 6.472765
BSD 1.170727
BTN 105.62429
BWP 15.470851
BYN 3.434871
BYR 22953.779249
BZD 2.354538
CAD 1.61577
CDF 2651.395397
CHF 0.931852
CLF 0.027214
CLP 1067.608816
CNY 8.246087
CNH 8.240623
COP 4524.834001
CRC 583.318208
CUC 1.171111
CUP 31.034446
CVE 110.134862
CZK 24.31947
DJF 208.47544
DKK 7.471162
DOP 73.564017
DZD 151.815836
EGP 55.734818
ERN 17.566668
ETB 182.070316
FJD 2.674469
FKP 0.87479
GBP 0.875699
GEL 3.150003
GGP 0.87479
GHS 13.463092
GIP 0.87479
GMD 86.077637
GNF 10235.037122
GTQ 8.966329
GYD 244.930584
HKD 9.112135
HNL 30.835827
HRK 7.533175
HTG 153.329477
HUF 386.85903
IDR 19597.433145
ILS 3.760315
IMP 0.87479
INR 105.020334
IQD 1533.587875
IRR 49333.059178
ISK 147.594872
JEP 0.87479
JMD 187.321056
JOD 0.830322
JPY 184.226303
KES 150.953295
KGS 102.413383
KHR 4688.479994
KMF 493.038387
KPW 1053.983025
KRW 1731.804032
KWD 0.359905
KYD 0.975547
KZT 604.028844
LAK 25352.259626
LBP 104836.318011
LKR 362.225079
LRD 207.213382
LSL 19.629273
LTL 3.457987
LVL 0.708394
LYD 6.345556
MAD 10.730121
MDL 19.743839
MGA 5264.846362
MKD 61.543749
MMK 2459.136594
MNT 4159.095589
MOP 9.383113
MRU 46.734376
MUR 54.047016
MVR 18.105591
MWK 2030.027271
MXN 21.115679
MYR 4.774619
MZN 74.845224
NAD 19.629189
NGN 1707.36646
NIO 43.079464
NOK 11.923044
NPR 169.001746
NZD 2.03894
OMR 0.450291
PAB 1.170717
PEN 3.941742
PGK 5.046102
PHP 68.76056
PKR 328.030592
PLN 4.212265
PYG 7815.83136
QAR 4.269255
RON 5.089668
RSD 117.379303
RUB 94.303285
RWF 1704.507744
SAR 4.392492
SBD 9.532982
SCR 16.117672
SDG 704.4177
SEK 10.910904
SGD 1.513948
SHP 0.878637
SLE 28.233288
SLL 24557.62031
SOS 667.919325
SRD 45.296237
STD 24239.63709
STN 24.471397
SVC 10.243896
SYP 12949.102091
SZL 19.634967
THB 36.840234
TJS 10.811233
TMT 4.1106
TND 3.421957
TOP 2.819755
TRY 50.135034
TTD 7.943648
TWD 36.948438
TZS 2921.922842
UAH 49.447705
UGX 4182.058377
USD 1.171111
UYU 45.875401
UZS 14118.317448
VES 326.989939
VND 30814.863086
VUV 142.172961
WST 3.266654
XAF 655.191202
XAG 0.017812
XAU 0.000271
XCD 3.164986
XCG 2.109916
XDR 0.814844
XOF 655.188408
XPF 119.331742
YER 279.251729
ZAR 19.647972
ZMK 10541.409535
ZMW 26.633756
ZWL 377.097324
  • AEX

    3.1000

    943.15

    +0.33%

  • BEL20

    13.1400

    5068.3

    +0.26%

  • PX1

    13.0400

    8163.74

    +0.16%

  • ISEQ

    53.6100

    13130.09

    +0.41%

  • OSEBX

    10.3900

    1660.14

    +0.63%

  • PSI20

    53.6400

    8181.24

    +0.66%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -55.0900

    4118.34

    -1.32%

  • N150

    4.8400

    3729.72

    +0.13%

"C'est une photo de Gaza ?" : l'IA trompeuse pour vérifier des images
"C'est une photo de Gaza ?" : l'IA trompeuse pour vérifier des images / Photo: Omar AL-QATTAA - AFP

"C'est une photo de Gaza ?" : l'IA trompeuse pour vérifier des images

"Grok, c'est vrai?" : les internautes recourent de plus en plus aux chatbots conversationnels pour vérifier des informations, au risque d'être trompés par les erreurs des IA, comme l'illustrent les vifs échanges déclenchés sur X par le partage de la photo d'une fillette dénutrie à Gaza.

Taille du texte:

Début août, quand le député français apparenté LFI Aymeric Caron, soutien notoire de la cause palestinienne, publie sur le réseau social X cette image sans légende, alors que la bande de Gaza est menacée d’une "famine généralisée" selon l'ONU, plusieurs utilisateurs demandent rapidement à Grok d'en vérifier l'origine.

Le robot conversationnel intégré à X est formel: cette photo a été prise selon lui en octobre 2018 au Yémen et montrerait Amal Hussain, une fillette de 7 ans. Sa réponse est largement relayée. Et le député accusé de faire de la désinformation.

Mais Grok se trompe : la photo a bien été prise à Gaza, le 2 août, par Omar al-Qattaa, photojournaliste pour l'AFP.

Le cliché montre Mariam Dawwas, 9 ans, dans les bras de sa mère Modallala à Gaza-ville, qui a expliqué à l'AFP que sa fille pesait 25 kilos avant la guerre, contre 9 aujourd'hui. Comme soutien médical, elle reçoit "seulement du lait, et il n'est pas toujours disponible. Ce n'est pas suffisant pour qu'elle se rétablisse", a-t-elle dit.

Interpellé sur l'inexactitude de sa réponse, Grok affirme: "Je ne propage pas de fake news ; je m'appuie sur des sources vérifiées". Il finit par admettre son erreur mais il la reproduit dès le lendemain, en réponses à de nouvelles questions d'utilisateurs de X.

- Des "boîtes noires" -

Cette séquence illustre les limites des outils d'intelligence artificielle, qui fonctionnent comme "des boîtes noires", souligne Louis de Diesbach, chercheur en éthique de la technique et auteur de Bonjour ChatGPT.

"On ne sait pas précisément pourquoi ils donnent telle ou telle réponse, ni comment ils priorisent leurs sources", souligne l'expert, expliquant que ces outils ont des biais liés à leurs données d'entraînement mais aussi aux consignes de leurs concepteurs.

Le robot conversationnel d'xAI, la start-up d'Elon Musk, présente selon l'expert "des biais encore plus prononcés et qui sont très alignés sur l'idéologie promue, entre autres," par le milliardaire sud-africain, proche des idées de la droite radicale américaine.

Interroger un chatbot sur l'origine d'une image revient à le faire sortir de son rôle, pointe M. de Diesbach : "Typiquement, quand vous cherchez l'origine d'une image, il peut dire +cette photo aurait pu être prise au Yémen, aurait pu être prise à Gaza, aurait pu être prise dans à peu près n'importe quel pays où il y a une famine+".

"Un modèle de langage ne cherche pas à créer des choses exactes, ce n'est pas le but", insiste l'expert.

Récemment, une autre photographie de l'AFP, du même Omar al-Qattaa, publiée par le quotidien Libération et montrant déjà un enfant souffrant de malnutrition à Gaza, avait déjà été faussement située au Yémen et datée de 2016 par Grok. Alors qu'elle a bien été prise en juillet 2025 à Gaza.

L'erreur de l'IA avait conduit des internautes à accuser à tort le journal de manipulation.

- Pas seulement Grok -

Les biais des IA sont liés à leurs données d'entraînement, qui conditionnent la base des connaissances du modèle, et à la phase dite d'alignement, qui détermine ce que le modèle va considérer comme une "bonne" ou une "mauvaise" réponse.

Et "ce n'est pas parce qu'on lui a expliqué qu'en fait, c'était faux, que du jour au lendemain, il va (changer sa réponse) parce que ses données d'entraînement n'ont pas changé, son alignement non plus", ajoute M. de Diesbach.

Les erreurs ne sont pas propres à Grok : interrogé par l'AFP sur l'origine de la photo de Mariam Dawwas, l’agent conversationnel de Mistral AI - start-up qui, en tant que partenaire de l’AFP, peut intégrer les dépêches de l'agence aux réponses de son chatbot - a lui aussi indiqué à tort qu'elle avait été prise au Yémen.

Pour Louis de Diesbach, les agents conversationnels ne doivent pas être utilisés pour vérifier des faits, à la manière d'un moteur de recherche, car "ils ne sont pas faits pour dire la vérité" mais pour "générer du contenu, qu’il soit vrai ou faux."

"Il faut le voir comme un ami mythomane : il ne ment pas toujours, mais il peut toujours mentir", conclut l’expert.

V.Nemec--TPP