The Prague Post - "Cela peut détruire une vie": des adolescentes américaines victimes de faux nus créés par l'IA

EUR -
AED 4.244024
AFN 76.755434
ALL 96.607675
AMD 442.45621
ANG 2.068542
AOA 1059.704958
ARS 1640.970031
AUD 1.769969
AWG 2.088786
AZN 1.959084
BAM 1.955938
BBD 2.329285
BDT 141.200607
BGN 1.955888
BHD 0.435663
BIF 3406.341149
BMD 1.155622
BND 1.506807
BOB 8.021088
BRL 6.113469
BSD 1.156492
BTN 102.518024
BWP 15.47623
BYN 3.942513
BYR 22650.1875
BZD 2.325885
CAD 1.621667
CDF 2482.275646
CHF 0.930172
CLF 0.02763
CLP 1083.904055
CNY 8.227624
CNH 8.233666
COP 4337.880705
CRC 580.641106
CUC 1.155622
CUP 30.623978
CVE 110.27901
CZK 24.284004
DJF 205.936361
DKK 7.467045
DOP 74.345263
DZD 150.828152
EGP 54.612394
ERN 17.334327
ETB 177.584535
FJD 2.634234
FKP 0.87839
GBP 0.877597
GEL 3.125904
GGP 0.87839
GHS 12.652607
GIP 0.87839
GMD 84.360249
GNF 10038.623808
GTQ 8.865126
GYD 241.960739
HKD 8.983567
HNL 30.426891
HRK 7.534886
HTG 151.410719
HUF 383.681452
IDR 19296.573004
ILS 3.738725
IMP 0.87839
INR 102.471701
IQD 1515.007254
IRR 48651.678365
ISK 146.209468
JEP 0.87839
JMD 186.144789
JOD 0.819328
JPY 178.292219
KES 149.352386
KGS 101.059237
KHR 4644.328791
KMF 486.517244
KPW 1040.061897
KRW 1692.246649
KWD 0.354926
KYD 0.963777
KZT 605.878135
LAK 25111.995084
LBP 103562.827803
LKR 351.667939
LRD 211.646888
LSL 19.875479
LTL 3.41225
LVL 0.699024
LYD 6.310501
MAD 10.707053
MDL 19.63156
MGA 5195.412762
MKD 61.534623
MMK 2426.445414
MNT 4137.818663
MOP 9.259256
MRU 45.923251
MUR 52.997331
MVR 17.802284
MWK 2005.359321
MXN 21.251943
MYR 4.806807
MZN 73.913153
NAD 19.875479
NGN 1659.817439
NIO 42.553381
NOK 11.716289
NPR 164.019612
NZD 2.04801
OMR 0.444322
PAB 1.156482
PEN 3.903293
PGK 4.882388
PHP 68.075311
PKR 326.994279
PLN 4.236525
PYG 8192.650885
QAR 4.215336
RON 5.084622
RSD 117.192733
RUB 93.889447
RWF 1680.933546
SAR 4.334163
SBD 9.511452
SCR 15.723433
SDG 693.939169
SEK 11.004224
SGD 1.50574
SHP 0.867016
SLE 26.805995
SLL 24232.811026
SOS 659.752416
SRD 44.487397
STD 23919.038301
STN 24.501947
SVC 10.118804
SYP 12777.524964
SZL 19.869579
THB 37.43084
TJS 10.715261
TMT 4.056233
TND 3.414234
TOP 2.706586
TRY 48.808725
TTD 7.844623
TWD 35.797116
TZS 2837.748927
UAH 48.628363
UGX 4059.515724
USD 1.155622
UYU 46.015846
UZS 13895.043806
VES 263.705935
VND 30400.942987
VUV 141.585147
WST 3.259881
XAF 656.009118
XAG 0.022771
XAU 0.000279
XCD 3.123126
XCG 2.084248
XDR 0.815865
XOF 656.009118
XPF 119.331742
YER 275.61842
ZAR 19.826421
ZMK 10401.984546
ZMW 26.165079
ZWL 372.109752
  • AEX

    10.2700

    961.08

    +1.08%

  • BEL20

    58.4800

    4972.78

    +1.19%

  • PX1

    104.9500

    8055.51

    +1.32%

  • ISEQ

    282.2900

    12294.83

    +2.35%

  • OSEBX

    7.8400

    1607.11

    +0.49%

  • PSI20

    127.7200

    8314.75

    +1.56%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    87.5100

    4157.61

    +2.15%

  • N150

    53.2000

    3672.19

    +1.47%

"Cela peut détruire une vie": des adolescentes américaines victimes de faux nus créés par l'IA
"Cela peut détruire une vie": des adolescentes américaines victimes de faux nus créés par l'IA / Photo: Stefani REYNOLDS - AFP/Archives

"Cela peut détruire une vie": des adolescentes américaines victimes de faux nus créés par l'IA

Ellis, adolescente texane de 14 ans, s'est réveillée un matin d'octobre avec plusieurs appels manqués et messages affolés sur son téléphone. De fausses photographies d'elle, dénudée, circulaient sur les réseaux sociaux.

Taille du texte:

"C'étaient des photos d'une de mes meilleures amies et de moi tirées d'Instagram. Des corps nus avaient été édités dessus", raconte la collégienne à l'AFP.

"Je me souviens avoir eu très très peur car ces faux nus étaient en train d'être envoyés autour de moi. Et je n'ai jamais rien fait de tel".

Comme plusieurs camarades de son collège de la périphérie de Dallas, au Texas, la jeune fille a été victime de montages hyperréalistes (deepfakes) à caractère sexuel, fabriqués sans leur consentement par un élève puis partagés sur le réseau Snapchat.

Avec la popularisation de l'intelligence artificielle (IA), il est devenu plus facile de fabriquer ces montages photo ou vidéo et de les rendre hyperréalistes, ouvrant la voie à leur utilisation à des fins de harcèlement ou d'humiliation.

"Les filles ne faisaient que pleurer, et pleurer à ne plus en finir, elles avaient honte", se souvient Anna Berry McAdams, mise au courant immédiatement par sa fille Ellis.

"Elle me disait: +Maman, on dirait moi+, et je lui répondais +mais non ma chérie, j'étais avec toi quand la photo a été prise et je sais que ce n'est pas le cas+", poursuit la quinquagénaire, qui se dit "horrifiée" par le réalisme des clichés.

- Quelques dollars -

Fin octobre, d'autres "deepfakes" à caractère sexuel ont été découverts dans un lycée du New Jersey, au nord-est des Etats-Unis. Une enquête a été ouverte pour identifier toutes les victimes et le ou les auteurs.

"Nous commençons à voir de plus en plus de cas émerger (...) mais en matière d'abus sexuels, de +revenge porn+ (divulgation malveillante d'images intimes) ou de +deepfakes pornographiques+, beaucoup de personnes ne se manifestent pas et souffrent en silence parce qu'elles ont peur de rendre l'affaire publique", expose Renée Cummings, criminologue et chercheuse en intelligence artificielle.

S'il est impossible d'évaluer l'ampleur du phénomène, "n'importe qui ayant un smartphone et quelques dollars peut maintenant fabriquer un +deepfake+", précise cette professeure de l'Université de Virginie.

Et ce, grâce aux récents progrès et à la démocratisation de l'IA générative, capable de produire textes, lignes de code, images et sons sur simple requête en langage courant.

De fait, les montages hyperréalistes, qui touchaient auparavant à l'image des célébrités "ayant des tas et des tas de photos et de vidéos d'eux en ligne" concernent à présent tout un chacun, explique Hany Farid, professeur à l'Université de Californie à Berkeley.

"Si vous avez un profil LinkedIn avec une photo de votre tête, quelqu'un peut créer une image sexuelle de vous", poursuit ce spécialiste en détection d'images manipulées numériquement, notant que ces montages "visent principalement les femmes et les jeunes filles".

- "Traumatisme bien réel"-

Face à cette menace grandissante, les systèmes scolaires et judiciaires apparaissent dépassés.

"Bien que votre visage ait été superposé à un corps, ce corps n'est pas vraiment le vôtre, donc ce n'est pas comme si quelqu'un avait partagé un nu de vous" aux yeux de la loi, explique Mme Cummings.

Aux Etats-Unis, aucune loi fédérale ne punit la fabrication et la transmission de fausses images à caractère sexuel, et seule une poignée d'Etats dispose de législations spécifiques.

Fin octobre, Joe Biden a exhorté les législateurs à instaurer des garde-fous, afin d'empêcher notamment "l'IA générative de produire des contenus pédocriminels ou des images intimes non consenties de personnes réelles".

Si la responsabilité des créateurs de ces images -aujourd'hui difficilement identifiables- est centrale, celle des entreprises derrière les sites ou logiciels utilisés, et des réseaux sociaux, vecteurs des contenus, doit aussi être posée, insiste M. Farid.

Car si ces images sont fausses, "le traumatisme est lui bien réel", abonde Renée Cummings, décrivant des personnes "souffrant d'anxiété, de crises de panique, de dépression ou encore de syndromes post-traumatiques après avoir été victimes de +deepfakes pornographiques". "Cela peut détruire une vie".

La texane Ellis, qui se décrit comme une adolescente "sociable" et sportive, raconte avoir à présent "constamment peur", bien que l'élève à l'origine des "deepfakes" ait été identifié et exclu temporairement du collège.

"Je ne sais pas combien de photos il a pu faire ni combien de personnes ont pu les recevoir", explique-t-elle, disant avoir demandé à changer d'établissement scolaire.

Face à cette inconnue, sa mère se mobilise pour faire reconnaître ces images comme de la "pornographie infantile" et les voir punir comme telles.

"Cela pourrait les affecter toute leur vie. Cela ne va jamais sortir d'internet. Donc quand elles vont postuler à l'université par exemple, qui sait si (ces images) ne vont pas resurgir?", s'inquiète Anna Berry McAdams.

U.Ptacek--TPP