The Prague Post - Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux

EUR -
AED 4.325621
AFN 74.203962
ALL 96.278127
AMD 444.108328
ANG 2.108021
AOA 1080.081053
ARS 1625.127738
AUD 1.662609
AWG 2.121588
AZN 2.000206
BAM 1.955837
BBD 2.372644
BDT 143.9627
BGN 1.940667
BHD 0.444067
BIF 3494.061693
BMD 1.177842
BND 1.492484
BOB 8.140153
BRL 6.038205
BSD 1.178072
BTN 107.053007
BWP 15.545698
BYN 3.37692
BYR 23085.704901
BZD 2.369254
CAD 1.613467
CDF 2508.804009
CHF 0.912963
CLF 0.025719
CLP 1015.547634
CNY 8.108381
CNH 8.086074
COP 4371.914258
CRC 558.593876
CUC 1.177842
CUP 31.212815
CVE 110.267068
CZK 24.213312
DJF 209.775029
DKK 7.470952
DOP 71.839212
DZD 153.023435
EGP 56.451139
ERN 17.667631
ETB 182.586373
FJD 2.591016
FKP 0.870532
GBP 0.872133
GEL 3.144718
GGP 0.870532
GHS 12.694238
GIP 0.870532
GMD 85.982724
GNF 10331.886727
GTQ 9.038169
GYD 246.474622
HKD 9.211467
HNL 31.166658
HRK 7.537362
HTG 154.598305
HUF 376.002587
IDR 19800.762213
ILS 3.652011
IMP 0.870532
INR 107.092288
IQD 1543.32894
IRR 1525486.890327
ISK 143.897217
JEP 0.870532
JMD 184.078763
JOD 0.835094
JPY 184.594361
KES 151.882805
KGS 103.002464
KHR 4725.948187
KMF 492.337431
KPW 1060.030488
KRW 1684.484976
KWD 0.361338
KYD 0.981698
KZT 587.868546
LAK 25227.937603
LBP 105545.791976
LKR 364.490646
LRD 216.174054
LSL 18.842453
LTL 3.477862
LVL 0.712465
LYD 7.457823
MAD 10.812603
MDL 20.156608
MGA 5029.880799
MKD 61.668146
MMK 2473.166636
MNT 4204.552819
MOP 9.492478
MRU 46.992485
MUR 54.640276
MVR 18.197365
MWK 2042.777604
MXN 20.217736
MYR 4.582931
MZN 75.844397
NAD 18.842453
NGN 1592.466407
NIO 43.349525
NOK 11.305388
NPR 171.280849
NZD 1.974075
OMR 0.45286
PAB 1.178122
PEN 3.957174
PGK 5.066944
PHP 67.854348
PKR 329.320994
PLN 4.222529
PYG 7601.819847
QAR 4.28218
RON 5.09511
RSD 117.417948
RUB 90.221898
RWF 1721.18113
SAR 4.41847
SBD 9.475955
SCR 16.347136
SDG 708.466835
SEK 10.67622
SGD 1.490777
SHP 0.883687
SLE 28.854209
SLL 24698.758874
SOS 672.095485
SRD 44.527728
STD 24378.953143
STN 24.499731
SVC 10.308193
SYP 130.754028
SZL 18.849633
THB 36.632656
TJS 11.162309
TMT 4.134226
TND 3.419664
TOP 2.835961
TRY 51.671726
TTD 7.996014
TWD 36.915914
TZS 3017.015424
UAH 50.953092
UGX 4221.079153
USD 1.177842
UYU 45.620855
UZS 14415.270314
VES 479.22808
VND 30744.034149
VUV 139.412415
WST 3.198018
XAF 655.949809
XAG 0.013015
XAU 0.000227
XCD 3.183177
XCG 2.12324
XDR 0.815781
XOF 655.941455
XPF 119.331742
YER 280.88592
ZAR 18.738231
ZMK 10601.993596
ZMW 22.176569
ZWL 379.264671
  • AEX

    9.4800

    1029.36

    +0.93%

  • BEL20

    -16.8900

    5612.23

    -0.3%

  • PX1

    38.3300

    8557.21

    +0.45%

  • ISEQ

    -22.1300

    12993.52

    -0.17%

  • OSEBX

    7.3200

    1884.55

    +0.39%

  • PSI20

    -28.7300

    9240.34

    -0.31%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    33.4900

    4168.4

    +0.81%

  • N150

    17.9900

    4107.47

    +0.44%

Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux
Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux / Photo: Chris Delmas - AFP

Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux

Lorsque des Philippins indignés ont utilisé un assistant virtuel ("chatbot") dopé à l'IA pour vérifier la photo virale d'un parlementaire impliqué dans un scandale de corruption, l'outil n'a pas détecté qu'elle était fabriquée. Il l'avait pourtant lui-même générée.

Taille du texte:

Les internautes se tournent de plus en plus vers des chatbots pour vérifier des images en temps réel. Mais ces outils échouent souvent, interrogeant sur leurs capacités à détecter les images factices, à un moment où les grandes plateformes réduisent la vérification humaine.

Dans de nombreux cas, ils identifient comme authentiques des images générées par l'IA, ce qui accentue la confusion dans un univers numérique saturé de faux visuels.

Les outils de vérification "sont principalement entraînés sur des schémas linguistiques et manquent de la compréhension visuelle nécessaire pour identifier correctement les images générées ou manipulées", explique Alon Yamin, PDG de Copyleaks, une plateforme de détection de contenus IA.

"Les chatbots donnent souvent des évaluations incohérentes ou trop générales, ce qui les rend peu fiables pour des tâches comme la vérification ou l'authentification."

Aux Philippines, une image fabriquée a ainsi circulé sur les réseaux sociaux impliquant Elizaldy Co, ex-député impliqué dans une vaste affaire de corruption concernant des projets fictifs de contrôle des inondations, qui auraient coûté des centaines de millions de dollars au contribuable.

La photo montrait l'ex-député au Portugal, alors qu'il aurait dû se trouver aux Philippines à la disposition de la justice. Lorsque des internautes ont interrogé l'assistant IA de Google pour savoir si la photo était authentique, l'IA a répondu à tort par l'affirmative.

Elizaldy Co n'est en réalité jamais réapparu en public depuis le début de l'enquête.

Les vérificateurs de l'AFP ont retrouvé le créateur de l'image et établi qu'elle avait été précisément générée par l'IA de Google.

Google n'a pas répondu aux sollicitations de l'AFP sur ce sujet.

- "Distinguable de la réalité" -

L'AFP a trouvé d'autres occurrences d'IA incapables de reconnaître leurs propres créations.

Lors des violentes manifestations du mois dernier au Cachemire pakistanais, des internautes ont partagé une image censée montrer des hommes marchant avec des drapeaux et des torches.

Une analyse de l'AFP a révélé qu'elle avait été créée avec le modèle Gemini de Google. Mais Gemini et Copilot (Microsoft) l'ont identifiée comme authentique.

"Ces modèles (d'IA) sont programmés uniquement pour bien imiter", explique à l'AFP Rossine Fallorina, du centre de recherche Sigla. "En un sens, ils ne peuvent que générer des choses qui imitent correctement. Ils ne peuvent pas déterminer si cette imitation est réellement distinguable de la réalité".

Plus tôt cette année, le Tow Center for Digital Journalism de l'université américaine Columbia a testé sept chatbots IA – dont ChatGPT, Perplexity, Gemini et Grok (une IA appartenant à Elon Musk) – sur 10 photos de photojournalistes.

Tous ont échoué à identifier correctement la provenance des images qui leur étaient soumises, selon l'étude.

- "Choqué" -

L'AFP a retrouvé l'auteur de la fausse photo d'Elizaldy Co, qui a dépassé le million de vues sur les réseaux: un développeur web philippin qui affirme l'avoir créée "pour s'amuser" avec Nano Banana, le générateur d'images IA de Gemini.

"Malheureusement, beaucoup de gens y ont cru", confie-t-il, sous couvert d'anonymat pour éviter les représailles. "J'ai modifié mon post en précisant +image générée par IA+ pour stopper la propagation, car j'étais choqué par le nombre de partages."

Ces cas montrent à quel point les photos générées par IA peuvent être indiscernables des images réelles. Et la tendance inquiète, alors que les internautes délaissent les moteurs de recherche traditionnels au profit des outils IA pour s'informer et vérifier des contenus.

Le géant américain Meta, qui contrôle Facebook et Instagram, a annoncé en début d'année la fin de son programme de fact-checking aux Etats-Unis pour le remplacer par un système de "notes de communauté", écrites par des utilisateurs, sur le modèle du réseau social X d'Elon Musk.

L'AFP collabore en revanche toujours avec Meta dans 26 langues, en Asie, Amérique latine et dans l'Union européenne.

Les chercheurs estiment que les modèles d'IA peuvent aider les fact-checkers professionnels à géolocaliser rapidement des images et repérer des indices visuels. Mais ils avertissent qu'ils ne peuvent pas remplacer le travail humain.

"On ne peut pas compter sur les outils IA pour combattre l'IA à long terme", insiste Rossine Fallorina.

S.Janousek--TPP