The Prague Post - L'IA, un nouveau front pour la désinformation

EUR -
AED 4.311462
AFN 74.532996
ALL 95.604244
AMD 435.213643
ANG 2.100927
AOA 1077.527857
ARS 1633.295978
AUD 1.631596
AWG 2.1128
AZN 1.995388
BAM 1.959854
BBD 2.364623
BDT 144.052087
BGN 1.957981
BHD 0.443248
BIF 3491.989485
BMD 1.173778
BND 1.497619
BOB 8.112368
BRL 5.817129
BSD 1.174044
BTN 111.37018
BWP 15.955159
BYN 3.313021
BYR 23006.048369
BZD 2.361205
CAD 1.593427
CDF 2723.165247
CHF 0.917108
CLF 0.02687
CLP 1057.53925
CNY 8.014732
CNH 8.020684
COP 4292.071768
CRC 533.758656
CUC 1.173778
CUP 31.105116
CVE 110.920695
CZK 24.388174
DJF 208.603451
DKK 7.472699
DOP 69.722888
DZD 155.43054
EGP 62.859923
ERN 17.60667
ETB 184.282778
FJD 2.573036
FKP 0.870117
GBP 0.862791
GEL 3.151662
GGP 0.870117
GHS 13.140479
GIP 0.870117
GMD 86.272328
GNF 10302.832787
GTQ 8.969432
GYD 245.615847
HKD 9.196908
HNL 31.246171
HRK 7.530606
HTG 153.793848
HUF 364.595979
IDR 20351.079961
ILS 3.46171
IMP 0.870117
INR 111.33296
IQD 1537.649151
IRR 1543518.041151
ISK 143.799471
JEP 0.870117
JMD 183.960525
JOD 0.832222
JPY 183.669844
KES 151.628769
KGS 102.612255
KHR 4709.783607
KMF 492.986421
KPW 1056.22492
KRW 1728.822133
KWD 0.36069
KYD 0.978395
KZT 543.797397
LAK 25796.685393
LBP 105111.818184
LKR 375.222917
LRD 215.799463
LSL 19.554978
LTL 3.465861
LVL 0.710007
LYD 7.459343
MAD 10.8387
MDL 20.228307
MGA 4877.047025
MKD 61.663018
MMK 2464.561081
MNT 4199.894698
MOP 9.473382
MRU 46.939824
MUR 55.214209
MVR 18.14071
MWK 2044.138761
MXN 20.50451
MYR 4.660435
MZN 75.010312
NAD 19.554857
NGN 1613.557569
NIO 43.10107
NOK 10.871895
NPR 178.18372
NZD 1.990886
OMR 0.451317
PAB 1.174013
PEN 4.117257
PGK 5.094093
PHP 72.106942
PKR 327.190857
PLN 4.253143
PYG 7220.64345
QAR 4.276953
RON 5.203824
RSD 117.468214
RUB 87.914586
RWF 1716.063404
SAR 4.401937
SBD 9.447249
SCR 17.166514
SDG 704.847653
SEK 10.841362
SGD 1.494278
SHP 0.876344
SLE 28.904272
SLL 24613.53281
SOS 670.816944
SRD 43.967387
STD 24294.834297
STN 24.884093
SVC 10.273257
SYP 129.871583
SZL 19.554827
THB 38.233467
TJS 11.012176
TMT 4.114092
TND 3.3828
TOP 2.826176
TRY 53.030701
TTD 7.969231
TWD 37.160659
TZS 3057.691961
UAH 51.586762
UGX 4414.564108
USD 1.173778
UYU 46.821438
UZS 14011.974854
VES 573.525997
VND 30936.092389
VUV 139.100108
WST 3.183507
XAF 657.364372
XAG 0.016067
XAU 0.000257
XCD 3.172194
XCG 2.115911
XDR 0.818966
XOF 657.901961
XPF 119.331742
YER 280.12205
ZAR 19.61839
ZMK 10565.408648
ZMW 21.92494
ZWL 377.95603
  • AEX

    16.9500

    1014.09

    +1.7%

  • BEL20

    72.8600

    5352.67

    +1.38%

  • PX1

    42.7800

    8114.84

    +0.53%

  • ISEQ

    167.7500

    12593.36

    +1.35%

  • OSEBX

    21.5700

    2018.63

    +1.08%

  • PSI20

    135.3800

    9344.96

    +1.47%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    71.6400

    3902.45

    +1.87%

  • N150

    52.5100

    4154.58

    +1.28%

L'IA, un nouveau front pour la désinformation
L'IA, un nouveau front pour la désinformation / Photo: SEBASTIEN BOZON - AFP/Archives

L'IA, un nouveau front pour la désinformation

Des deepfakes visant à influencer des élections aux chatbots relayant des infox, la pollution du monde de l'information apparaît comme l'un des grands dangers du recours croissant à l'intelligence artificielle (IA).

Taille du texte:

Le déploiement rapide de cette technologie, au cœur d'un sommet mondial en cours à Paris, a déjà nourri ces dernières années l'essor de la désinformation, en lui offrant de nouveaux outils redoutables.

En Slovaquie, en 2023, un enregistrement avait fait grand bruit: on y entendait le chef d'un parti pro-européen y admettre que les élections législatives allaient être manipulées. Il s'agissait d'un deepfake, un contenu truqué grâce à l'IA, qui a pu influencer des électeurs.

Partout dans le monde, des responsables politiques ont déjà fait les frais de ce type de procédés, à fort potentiel de viralité sur les réseaux sociaux.

C'est le cas de l'ancien président américain Joe Biden, dont la voix a été truquée pour conseiller à des électeurs de ne pas voter. Ou encore d'Emmanuel Macron, annonçant sa démission dans une vidéo très partagée à la bande-son trafiquée.

- Deepfakes pornographiques -

Des femmes politiques aux Etats-Unis, en Italie, au Royaume-Uni ou encore au Pakistan ont aussi été victimes d'images à caractère pornographique générées par IA. Une tendance jugée inquiétante par des chercheurs.

Ces deepfakes à caractère sexuel visent aussi régulièrement des célébrités comme la chanteuse américaine Taylor Swift, et toutes les femmes y seraient aujourd'hui vulnérables, met en garde l'American Sunlight Project, un groupe de recherche sur la désinformation.

L'IA est aussi au cœur d'opérations d'ingérences numériques de grande ampleur.

Les campagnes prorusses appelées Doppelgänger ou Matriochka figurent parmi les exemples les plus retentissants: leurs auteurs ont eu largement recours à des profils inauthentiques, des bots, pour publier des contenus générés par IA, visant notamment à saper le soutien occidental à l'Ukraine.

"Ce qui est nouveau, c'est l'échelle et la facilité avec laquelle une personne avec très peu de ressources financières et de temps peut diffuser des contenus faux qui, par ailleurs, paraissent de plus en plus crédibles et sont de plus en plus difficiles à détecter", détaille Chine Labbé, rédactrice en chef de l'organisation Newsguard qui analyse la fiabilité des sites et contenus en ligne.

- "Pollution du web" -

Aucun domaine n'échappe à ces contenus factices: de faux clips musicaux sont souvent mis en circulation, tout comme de fausses photos d'événements historiques fabriquées en quelques clics.

Sur Facebook, des comptes multiplient les images attendrissantes générées par IA pour obtenir de l'engagement. La finalité n'est pas forcément de faire circuler une fausse information, mais plutôt de capter l'attention à des fins mercantiles, voire de préparer des arnaques une fois des utilisateurs crédules identifiés.

Autre cas de figure: en 2024, des deepfakes de médecins connus, comme Michel Cymes en France, ont été diffusés pour faire la promotion de remèdes qu'ils n'avaient pourtant jamais soutenus.

Fin décembre, alors que l'histoire d'un homme qui a mis le feu à une femme dans le métro new-yorkais faisait la Une de l'actualité aux Etats-Unis, une prétendue photo de la victime a largement circulé. Elle avait été générée par IA, et le drame instrumentalisé, dans le but de renvoyer vers des sites de cryptomonnaies.

"Au-delà du risque de désinformation, il y a celui de pollution du web: on ne sait jamais si on est face à un contenu qui a été vérifié, édité par un être humain rigoureux, ou si c'est généré par une IA sans que qui que ce soit se préoccupe de la véracité", observe Chine Labbé.

Chaque événement au cœur de l'actualité suscite ainsi un flot d'images créées en ligne, comme les incendies d'ampleur à Los Angeles début 2025 pendant lesquels des fausses photos du signe "Hollywood" en flammes ou d'un Oscar dans les cendres ont fait le tour du monde.

Les chatbots en vogue, tels que l'américain ChatGPT, peuvent eux aussi contribuer à diffuser des infox, souligne Chine Labbé de Newsguard: "ils ont tendance à d'abord citer des sources générées par IA, donc c'est le serpent qui se mord la queue".

L'arrivée du chinois DeepSeek, qui relaie les positions officielles chinoises dans une partie de ses réponses, ne fait que renforcer la nécessité d'imposer des cadres à ces outils, plaide l'experte. Il faudrait leur "apprendre à reconnaître les sources fiables des sources de propagande".

R.Krejci--TPP