The Prague Post - L'IA, un nouveau front pour la désinformation

EUR -
AED 4.282284
AFN 77.769297
ALL 96.678852
AMD 449.126943
ANG 2.087189
AOA 1069.258373
ARS 1643.842731
AUD 1.798056
AWG 2.101786
AZN 1.986896
BAM 1.956789
BBD 2.35569
BDT 142.451981
BGN 1.956789
BHD 0.440923
BIF 3447.241886
BMD 1.166039
BND 1.514265
BOB 8.082084
BRL 6.30268
BSD 1.169591
BTN 102.94902
BWP 15.67292
BYN 3.984313
BYR 22854.368279
BZD 2.352289
CAD 1.635196
CDF 2571.116853
CHF 0.928751
CLF 0.028569
CLP 1120.736306
CNY 8.31042
CNH 8.310845
COP 4497.072364
CRC 587.096659
CUC 1.166039
CUP 30.900039
CVE 110.320745
CZK 24.302244
DJF 208.275241
DKK 7.472917
DOP 73.967376
DZD 150.926263
EGP 55.400994
ERN 17.490588
ETB 173.836239
FJD 2.651399
FKP 0.867142
GBP 0.871903
GEL 3.152808
GGP 0.867142
GHS 12.543338
GIP 0.867142
GMD 83.955237
GNF 10149.12834
GTQ 8.958527
GYD 244.653623
HKD 9.056935
HNL 30.717522
HRK 7.540547
HTG 153.387506
HUF 389.579573
IDR 19324.359513
ILS 3.854348
IMP 0.867142
INR 102.614369
IQD 1532.174205
IRR 49046.528212
ISK 141.919081
JEP 0.867142
JMD 187.964978
JOD 0.826768
JPY 175.611379
KES 151.056329
KGS 101.970576
KHR 4707.378632
KMF 492.655985
KPW 1049.435574
KRW 1657.805016
KWD 0.35661
KYD 0.974693
KZT 629.187928
LAK 25379.824389
LBP 104735.722809
LKR 354.108931
LRD 214.028148
LSL 20.395206
LTL 3.443011
LVL 0.705326
LYD 6.348208
MAD 10.695304
MDL 19.724967
MGA 5202.628881
MKD 61.651152
MMK 2448.250098
MNT 4193.468647
MOP 9.356728
MRU 46.773635
MUR 52.507186
MVR 17.844759
MWK 2028.024758
MXN 21.427895
MYR 4.927727
MZN 74.522005
NAD 20.395206
NGN 1715.290741
NIO 43.041749
NOK 11.733882
NPR 164.718232
NZD 2.03675
OMR 0.447706
PAB 1.169591
PEN 3.960201
PGK 4.988521
PHP 67.771409
PKR 331.096002
PLN 4.245491
PYG 8301.194582
QAR 4.263154
RON 5.089999
RSD 117.229236
RUB 94.947977
RWF 1697.657824
SAR 4.372741
SBD 9.605099
SCR 16.207189
SDG 701.376864
SEK 11.000589
SGD 1.510259
SHP 0.874831
SLE 26.959259
SLL 24451.258412
SOS 668.437761
SRD 45.960645
STD 24134.657173
STN 24.512386
SVC 10.234171
SYP 15160.701373
SZL 20.388302
THB 38.181998
TJS 10.789352
TMT 4.081137
TND 3.415026
TOP 2.730985
TRY 48.901556
TTD 7.933009
TWD 35.723831
TZS 2877.153822
UAH 48.813866
UGX 4088.065694
USD 1.166039
UYU 46.82366
UZS 14223.186956
VES 234.627668
VND 30715.804552
VUV 142.312988
WST 3.275397
XAF 656.288622
XAG 0.022425
XAU 0.000275
XCD 3.15128
XCG 2.107865
XDR 0.816212
XOF 656.288622
XPF 119.331742
YER 278.570949
ZAR 20.25311
ZMK 10495.756208
ZMW 26.520401
ZWL 375.464146
  • AEX

    -3.1600

    955.86

    -0.33%

  • BEL20

    -47.6000

    4963.34

    -0.95%

  • PX1

    -14.7400

    8174.2

    -0.18%

  • ISEQ

    -213.2200

    11438.22

    -1.83%

  • OSEBX

    -20.7100

    1623.18

    -1.26%

  • PSI20

    -75.0700

    8266.08

    -0.9%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -28.1000

    3985.67

    -0.7%

  • N150

    -39.5900

    3660.75

    -1.07%

L'IA, un nouveau front pour la désinformation
L'IA, un nouveau front pour la désinformation / Photo: SEBASTIEN BOZON - AFP/Archives

L'IA, un nouveau front pour la désinformation

Des deepfakes visant à influencer des élections aux chatbots relayant des infox, la pollution du monde de l'information apparaît comme l'un des grands dangers du recours croissant à l'intelligence artificielle (IA).

Taille du texte:

Le déploiement rapide de cette technologie, au cœur d'un sommet mondial en cours à Paris, a déjà nourri ces dernières années l'essor de la désinformation, en lui offrant de nouveaux outils redoutables.

En Slovaquie, en 2023, un enregistrement avait fait grand bruit: on y entendait le chef d'un parti pro-européen y admettre que les élections législatives allaient être manipulées. Il s'agissait d'un deepfake, un contenu truqué grâce à l'IA, qui a pu influencer des électeurs.

Partout dans le monde, des responsables politiques ont déjà fait les frais de ce type de procédés, à fort potentiel de viralité sur les réseaux sociaux.

C'est le cas de l'ancien président américain Joe Biden, dont la voix a été truquée pour conseiller à des électeurs de ne pas voter. Ou encore d'Emmanuel Macron, annonçant sa démission dans une vidéo très partagée à la bande-son trafiquée.

- Deepfakes pornographiques -

Des femmes politiques aux Etats-Unis, en Italie, au Royaume-Uni ou encore au Pakistan ont aussi été victimes d'images à caractère pornographique générées par IA. Une tendance jugée inquiétante par des chercheurs.

Ces deepfakes à caractère sexuel visent aussi régulièrement des célébrités comme la chanteuse américaine Taylor Swift, et toutes les femmes y seraient aujourd'hui vulnérables, met en garde l'American Sunlight Project, un groupe de recherche sur la désinformation.

L'IA est aussi au cœur d'opérations d'ingérences numériques de grande ampleur.

Les campagnes prorusses appelées Doppelgänger ou Matriochka figurent parmi les exemples les plus retentissants: leurs auteurs ont eu largement recours à des profils inauthentiques, des bots, pour publier des contenus générés par IA, visant notamment à saper le soutien occidental à l'Ukraine.

"Ce qui est nouveau, c'est l'échelle et la facilité avec laquelle une personne avec très peu de ressources financières et de temps peut diffuser des contenus faux qui, par ailleurs, paraissent de plus en plus crédibles et sont de plus en plus difficiles à détecter", détaille Chine Labbé, rédactrice en chef de l'organisation Newsguard qui analyse la fiabilité des sites et contenus en ligne.

- "Pollution du web" -

Aucun domaine n'échappe à ces contenus factices: de faux clips musicaux sont souvent mis en circulation, tout comme de fausses photos d'événements historiques fabriquées en quelques clics.

Sur Facebook, des comptes multiplient les images attendrissantes générées par IA pour obtenir de l'engagement. La finalité n'est pas forcément de faire circuler une fausse information, mais plutôt de capter l'attention à des fins mercantiles, voire de préparer des arnaques une fois des utilisateurs crédules identifiés.

Autre cas de figure: en 2024, des deepfakes de médecins connus, comme Michel Cymes en France, ont été diffusés pour faire la promotion de remèdes qu'ils n'avaient pourtant jamais soutenus.

Fin décembre, alors que l'histoire d'un homme qui a mis le feu à une femme dans le métro new-yorkais faisait la Une de l'actualité aux Etats-Unis, une prétendue photo de la victime a largement circulé. Elle avait été générée par IA, et le drame instrumentalisé, dans le but de renvoyer vers des sites de cryptomonnaies.

"Au-delà du risque de désinformation, il y a celui de pollution du web: on ne sait jamais si on est face à un contenu qui a été vérifié, édité par un être humain rigoureux, ou si c'est généré par une IA sans que qui que ce soit se préoccupe de la véracité", observe Chine Labbé.

Chaque événement au cœur de l'actualité suscite ainsi un flot d'images créées en ligne, comme les incendies d'ampleur à Los Angeles début 2025 pendant lesquels des fausses photos du signe "Hollywood" en flammes ou d'un Oscar dans les cendres ont fait le tour du monde.

Les chatbots en vogue, tels que l'américain ChatGPT, peuvent eux aussi contribuer à diffuser des infox, souligne Chine Labbé de Newsguard: "ils ont tendance à d'abord citer des sources générées par IA, donc c'est le serpent qui se mord la queue".

L'arrivée du chinois DeepSeek, qui relaie les positions officielles chinoises dans une partie de ses réponses, ne fait que renforcer la nécessité d'imposer des cadres à ces outils, plaide l'experte. Il faudrait leur "apprendre à reconnaître les sources fiables des sources de propagande".

R.Krejci--TPP