The Prague Post - "C'est une photo de Gaza ?" : l'IA trompeuse pour vérifier des images

EUR -
AED 4.280112
AFN 80.985244
ALL 98.117138
AMD 447.101497
ANG 2.085531
AOA 1068.577188
ARS 1551.593175
AUD 1.791469
AWG 2.100448
AZN 1.979368
BAM 1.963402
BBD 2.35271
BDT 141.809091
BGN 1.957344
BHD 0.439361
BIF 3435.878441
BMD 1.165297
BND 1.499105
BOB 8.069662
BRL 6.368932
BSD 1.165212
BTN 102.306452
BWP 15.718266
BYN 3.835451
BYR 22839.82277
BZD 2.340623
CAD 1.601042
CDF 3367.708565
CHF 0.940157
CLF 0.028955
CLP 1135.885635
CNY 8.370503
CNH 8.372292
COP 4714.186032
CRC 589.999693
CUC 1.165297
CUP 30.880373
CVE 110.994331
CZK 24.562113
DJF 207.096362
DKK 7.463722
DOP 71.083197
DZD 151.874124
EGP 56.465754
ERN 17.479456
ETB 161.568734
FJD 2.628791
FKP 0.875682
GBP 0.872376
GEL 3.150487
GGP 0.875682
GHS 12.294043
GIP 0.875682
GMD 84.485979
GNF 10108.952445
GTQ 8.941622
GYD 243.798644
HKD 9.147553
HNL 30.705647
HRK 7.535864
HTG 152.912082
HUF 397.953325
IDR 19045.965066
ILS 3.998483
IMP 0.875682
INR 102.201097
IQD 1526.539175
IRR 49088.13995
ISK 142.830558
JEP 0.875682
JMD 186.221056
JOD 0.826205
JPY 171.597568
KES 150.910702
KGS 101.905598
KHR 4672.841486
KMF 492.34732
KPW 1048.70659
KRW 1614.275007
KWD 0.355987
KYD 0.971085
KZT 626.126628
LAK 25170.417114
LBP 104352.353473
LKR 350.567412
LRD 234.225101
LSL 20.864337
LTL 3.440819
LVL 0.704877
LYD 6.33343
MAD 10.591094
MDL 19.792146
MGA 5168.092996
MKD 61.769173
MMK 2446.321044
MNT 4185.089255
MOP 9.421647
MRU 46.487469
MUR 53.247473
MVR 17.946363
MWK 2023.525896
MXN 21.680143
MYR 4.92948
MZN 74.532141
NAD 20.851371
NGN 1781.157624
NIO 42.824939
NOK 11.872688
NPR 163.687806
NZD 1.962969
OMR 0.448062
PAB 1.165272
PEN 4.142685
PGK 4.819087
PHP 66.775599
PKR 329.25442
PLN 4.274478
PYG 8727.794393
QAR 4.242267
RON 5.076382
RSD 117.15431
RUB 93.222566
RWF 1679.775741
SAR 4.372465
SBD 9.606899
SCR 17.11854
SDG 699.761649
SEK 11.201191
SGD 1.497442
SHP 0.915741
SLE 26.940701
SLL 24435.70172
SOS 665.968555
SRD 43.157936
STD 24119.296833
STN 24.879093
SVC 10.195477
SYP 15150.461126
SZL 20.847018
THB 37.68629
TJS 10.895643
TMT 4.090193
TND 3.378178
TOP 2.729239
TRY 47.376254
TTD 7.899792
TWD 34.852848
TZS 2889.937315
UAH 48.477909
UGX 4160.108116
USD 1.165297
UYU 46.761061
UZS 14624.478687
VES 147.935414
VND 30559.915926
VUV 138.814991
WST 3.229627
XAF 658.540806
XAG 0.030779
XAU 0.000346
XCD 3.149274
XCG 2.100031
XDR 0.821434
XOF 661.308064
XPF 119.331742
YER 280.078845
ZAR 20.69958
ZMK 10489.069637
ZMW 26.831273
ZWL 375.225184
  • AEX

    -3.1000

    883.93

    -0.35%

  • BEL20

    -7.9300

    4657.23

    -0.17%

  • PX1

    13.7200

    7635.03

    +0.18%

  • ISEQ

    83.4300

    11358.13

    +0.74%

  • OSEBX

    1.3000

    1624.55

    +0.08%

  • PSI20

    30.8400

    7741.34

    +0.4%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -66.2500

    3213.58

    -2.02%

  • N150

    11.3500

    3671.38

    +0.31%

"C'est une photo de Gaza ?" : l'IA trompeuse pour vérifier des images
"C'est une photo de Gaza ?" : l'IA trompeuse pour vérifier des images / Photo: Omar AL-QATTAA - AFP

"C'est une photo de Gaza ?" : l'IA trompeuse pour vérifier des images

"Grok, c'est vrai?" : les internautes recourent de plus en plus aux chatbots conversationnels pour vérifier des informations, au risque d'être trompés par les erreurs des IA, comme l'illustrent les vifs échanges déclenchés sur X par le partage de la photo d'une fillette dénutrie à Gaza.

Taille du texte:

Début août, quand le député français apparenté LFI Aymeric Caron, soutien notoire de la cause palestinienne, publie sur le réseau social X cette image sans légende, alors que la bande de Gaza est menacée d’une "famine généralisée" selon l'ONU, plusieurs utilisateurs demandent rapidement à Grok d'en vérifier l'origine.

Le robot conversationnel intégré à X est formel: cette photo a été prise selon lui en octobre 2018 au Yémen et montrerait Amal Hussain, une fillette de 7 ans. Sa réponse est largement relayée. Et le député accusé de faire de la désinformation.

Mais Grok se trompe : la photo a bien été prise à Gaza, le 2 août, par Omar al-Qattaa, photojournaliste pour l'AFP.

Le cliché montre Mariam Dawwas, 9 ans, dans les bras de sa mère Modallala à Gaza-ville, qui a expliqué à l'AFP que sa fille pesait 25 kilos avant la guerre, contre 9 aujourd'hui. Comme soutien médical, elle reçoit "seulement du lait, et il n'est pas toujours disponible. Ce n'est pas suffisant pour qu'elle se rétablisse", a-t-elle dit.

Interpellé sur l'inexactitude de sa réponse, Grok affirme: "Je ne propage pas de fake news ; je m'appuie sur des sources vérifiées". Il finit par admettre son erreur mais il la reproduit dès le lendemain, en réponses à de nouvelles questions d'utilisateurs de X.

- Des "boîtes noires" -

Cette séquence illustre les limites des outils d'intelligence artificielle, qui fonctionnent comme "des boîtes noires", souligne Louis de Diesbach, chercheur en éthique de la technique et auteur de Bonjour ChatGPT.

"On ne sait pas précisément pourquoi ils donnent telle ou telle réponse, ni comment ils priorisent leurs sources", souligne l'expert, expliquant que ces outils ont des biais liés à leurs données d'entraînement mais aussi aux consignes de leurs concepteurs.

Le robot conversationnel d'xAI, la start-up d'Elon Musk, présente selon l'expert "des biais encore plus prononcés et qui sont très alignés sur l'idéologie promue, entre autres," par le milliardaire sud-africain, proche des idées de la droite radicale américaine.

Interroger un chatbot sur l'origine d'une image revient à le faire sortir de son rôle, pointe M. de Diesbach : "Typiquement, quand vous cherchez l'origine d'une image, il peut dire +cette photo aurait pu être prise au Yémen, aurait pu être prise à Gaza, aurait pu être prise dans à peu près n'importe quel pays où il y a une famine+".

"Un modèle de langage ne cherche pas à créer des choses exactes, ce n'est pas le but", insiste l'expert.

Récemment, une autre photographie de l'AFP, du même Omar al-Qattaa, publiée par le quotidien Libération et montrant déjà un enfant souffrant de malnutrition à Gaza, avait déjà été faussement située au Yémen et datée de 2016 par Grok. Alors qu'elle a bien été prise en juillet 2025 à Gaza.

L'erreur de l'IA avait conduit des internautes à accuser à tort le journal de manipulation.

- Pas seulement Grok -

Les biais des IA sont liés à leurs données d'entraînement, qui conditionnent la base des connaissances du modèle, et à la phase dite d'alignement, qui détermine ce que le modèle va considérer comme une "bonne" ou une "mauvaise" réponse.

Et "ce n'est pas parce qu'on lui a expliqué qu'en fait, c'était faux, que du jour au lendemain, il va (changer sa réponse) parce que ses données d'entraînement n'ont pas changé, son alignement non plus", ajoute M. de Diesbach.

Les erreurs ne sont pas propres à Grok : interrogé par l'AFP sur l'origine de la photo de Mariam Dawwas, l’agent conversationnel de Mistral AI - start-up qui, en tant que partenaire de l’AFP, peut intégrer les dépêches de l'agence aux réponses de son chatbot - a lui aussi indiqué à tort qu'elle avait été prise au Yémen.

Pour Louis de Diesbach, les agents conversationnels ne doivent pas être utilisés pour vérifier des faits, à la manière d'un moteur de recherche, car "ils ne sont pas faits pour dire la vérité" mais pour "générer du contenu, qu’il soit vrai ou faux."

"Il faut le voir comme un ami mythomane : il ne ment pas toujours, mais il peut toujours mentir", conclut l’expert.

V.Nemec--TPP