The Prague Post - L'IA, un nouveau front pour la désinformation

EUR -
AED 4.313975
AFN 80.547545
ALL 97.434934
AMD 449.73046
ANG 2.102303
AOA 1077.171324
ARS 1492.791377
AUD 1.764031
AWG 2.116752
AZN 2.0016
BAM 1.955498
BBD 2.367734
BDT 143.357833
BGN 1.958424
BHD 0.442032
BIF 3495.35953
BMD 1.174668
BND 1.502568
BOB 8.102747
BRL 6.532923
BSD 1.172619
BTN 101.493307
BWP 15.744565
BYN 3.837607
BYR 23023.499991
BZD 2.355536
CAD 1.60865
CDF 3393.617337
CHF 0.934453
CLF 0.028651
CLP 1114.547663
CNY 8.403625
CNH 8.419418
COP 4775.561579
CRC 592.408399
CUC 1.174668
CUP 31.128712
CVE 110.247953
CZK 24.57048
DJF 208.817712
DKK 7.463496
DOP 71.148999
DZD 151.843521
EGP 57.684081
ERN 17.620026
ETB 163.190867
FJD 2.634488
FKP 0.874805
GBP 0.874465
GEL 3.18381
GGP 0.874805
GHS 12.254105
GIP 0.874805
GMD 84.57654
GNF 10176.42647
GTQ 9.000608
GYD 245.342064
HKD 9.220266
HNL 30.706252
HRK 7.537617
HTG 153.886205
HUF 396.850416
IDR 19217.339549
ILS 3.93908
IMP 0.874805
INR 101.616219
IQD 1536.162471
IRR 49468.226083
ISK 142.276286
JEP 0.874805
JMD 187.051077
JOD 0.832886
JPY 173.446879
KES 151.506573
KGS 102.553011
KHR 4697.273684
KMF 491.603168
KPW 1057.221015
KRW 1624.959912
KWD 0.358662
KYD 0.977249
KZT 639.001194
LAK 25279.09122
LBP 105069.953557
LKR 353.815291
LRD 235.113646
LSL 20.812382
LTL 3.468491
LVL 0.710546
LYD 6.330021
MAD 10.545169
MDL 19.72395
MGA 5179.199166
MKD 61.550483
MMK 2465.733848
MNT 4216.363074
MOP 9.481134
MRU 46.800763
MUR 53.342135
MVR 18.094285
MWK 2033.385588
MXN 21.777064
MYR 4.958867
MZN 75.131746
NAD 20.812382
NGN 1799.510154
NIO 43.153327
NOK 11.93722
NPR 162.388891
NZD 1.948849
OMR 0.45153
PAB 1.172619
PEN 4.153358
PGK 4.860248
PHP 67.132737
PKR 332.301418
PLN 4.249143
PYG 8783.641829
QAR 4.274539
RON 5.067641
RSD 117.131888
RUB 93.245282
RWF 1695.037905
SAR 4.407892
SBD 9.732239
SCR 16.61843
SDG 705.392672
SEK 11.192362
SGD 1.503815
SHP 0.923105
SLE 26.959075
SLL 24632.212956
SOS 670.196371
SRD 43.067458
STD 24313.263549
STN 24.496212
SVC 10.260413
SYP 15272.941179
SZL 20.804783
THB 38.024448
TJS 11.198868
TMT 4.123086
TND 3.423471
TOP 2.751195
TRY 47.634334
TTD 7.973767
TWD 34.632517
TZS 3004.935362
UAH 49.031718
UGX 4204.349902
USD 1.174668
UYU 46.972737
UZS 14837.70572
VES 141.281363
VND 30711.704452
VUV 140.295141
WST 3.217414
XAF 655.855588
XAG 0.030776
XAU 0.000352
XCD 3.1746
XCG 2.113373
XDR 0.815674
XOF 655.855588
XPF 119.331742
YER 283.036769
ZAR 20.86834
ZMK 10573.429114
ZMW 27.351771
ZWL 378.242735
  • AEX

    -7.9500

    905.37

    -0.87%

  • BEL20

    -7.8500

    4609.47

    -0.17%

  • PX1

    16.4200

    7834.58

    +0.21%

  • ISEQ

    3.4700

    11584.58

    +0.03%

  • OSEBX

    -10.4000

    1614.53

    -0.64%

  • PSI20

    -30.1700

    7706.91

    -0.39%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    53.0600

    2860.38

    +1.89%

  • N150

    -13.0200

    3708.18

    -0.35%

L'IA, un nouveau front pour la désinformation
L'IA, un nouveau front pour la désinformation / Photo: SEBASTIEN BOZON - AFP/Archives

L'IA, un nouveau front pour la désinformation

Des deepfakes visant à influencer des élections aux chatbots relayant des infox, la pollution du monde de l'information apparaît comme l'un des grands dangers du recours croissant à l'intelligence artificielle (IA).

Taille du texte:

Le déploiement rapide de cette technologie, au cœur d'un sommet mondial en cours à Paris, a déjà nourri ces dernières années l'essor de la désinformation, en lui offrant de nouveaux outils redoutables.

En Slovaquie, en 2023, un enregistrement avait fait grand bruit: on y entendait le chef d'un parti pro-européen y admettre que les élections législatives allaient être manipulées. Il s'agissait d'un deepfake, un contenu truqué grâce à l'IA, qui a pu influencer des électeurs.

Partout dans le monde, des responsables politiques ont déjà fait les frais de ce type de procédés, à fort potentiel de viralité sur les réseaux sociaux.

C'est le cas de l'ancien président américain Joe Biden, dont la voix a été truquée pour conseiller à des électeurs de ne pas voter. Ou encore d'Emmanuel Macron, annonçant sa démission dans une vidéo très partagée à la bande-son trafiquée.

- Deepfakes pornographiques -

Des femmes politiques aux Etats-Unis, en Italie, au Royaume-Uni ou encore au Pakistan ont aussi été victimes d'images à caractère pornographique générées par IA. Une tendance jugée inquiétante par des chercheurs.

Ces deepfakes à caractère sexuel visent aussi régulièrement des célébrités comme la chanteuse américaine Taylor Swift, et toutes les femmes y seraient aujourd'hui vulnérables, met en garde l'American Sunlight Project, un groupe de recherche sur la désinformation.

L'IA est aussi au cœur d'opérations d'ingérences numériques de grande ampleur.

Les campagnes prorusses appelées Doppelgänger ou Matriochka figurent parmi les exemples les plus retentissants: leurs auteurs ont eu largement recours à des profils inauthentiques, des bots, pour publier des contenus générés par IA, visant notamment à saper le soutien occidental à l'Ukraine.

"Ce qui est nouveau, c'est l'échelle et la facilité avec laquelle une personne avec très peu de ressources financières et de temps peut diffuser des contenus faux qui, par ailleurs, paraissent de plus en plus crédibles et sont de plus en plus difficiles à détecter", détaille Chine Labbé, rédactrice en chef de l'organisation Newsguard qui analyse la fiabilité des sites et contenus en ligne.

- "Pollution du web" -

Aucun domaine n'échappe à ces contenus factices: de faux clips musicaux sont souvent mis en circulation, tout comme de fausses photos d'événements historiques fabriquées en quelques clics.

Sur Facebook, des comptes multiplient les images attendrissantes générées par IA pour obtenir de l'engagement. La finalité n'est pas forcément de faire circuler une fausse information, mais plutôt de capter l'attention à des fins mercantiles, voire de préparer des arnaques une fois des utilisateurs crédules identifiés.

Autre cas de figure: en 2024, des deepfakes de médecins connus, comme Michel Cymes en France, ont été diffusés pour faire la promotion de remèdes qu'ils n'avaient pourtant jamais soutenus.

Fin décembre, alors que l'histoire d'un homme qui a mis le feu à une femme dans le métro new-yorkais faisait la Une de l'actualité aux Etats-Unis, une prétendue photo de la victime a largement circulé. Elle avait été générée par IA, et le drame instrumentalisé, dans le but de renvoyer vers des sites de cryptomonnaies.

"Au-delà du risque de désinformation, il y a celui de pollution du web: on ne sait jamais si on est face à un contenu qui a été vérifié, édité par un être humain rigoureux, ou si c'est généré par une IA sans que qui que ce soit se préoccupe de la véracité", observe Chine Labbé.

Chaque événement au cœur de l'actualité suscite ainsi un flot d'images créées en ligne, comme les incendies d'ampleur à Los Angeles début 2025 pendant lesquels des fausses photos du signe "Hollywood" en flammes ou d'un Oscar dans les cendres ont fait le tour du monde.

Les chatbots en vogue, tels que l'américain ChatGPT, peuvent eux aussi contribuer à diffuser des infox, souligne Chine Labbé de Newsguard: "ils ont tendance à d'abord citer des sources générées par IA, donc c'est le serpent qui se mord la queue".

L'arrivée du chinois DeepSeek, qui relaie les positions officielles chinoises dans une partie de ses réponses, ne fait que renforcer la nécessité d'imposer des cadres à ces outils, plaide l'experte. Il faudrait leur "apprendre à reconnaître les sources fiables des sources de propagande".

R.Krejci--TPP