The Prague Post - "Cela peut détruire une vie": des adolescentes américaines victimes de faux nus créés par l'IA

EUR -
AED 4.336089
AFN 73.761242
ALL 96.307841
AMD 445.120196
ANG 2.11312
AOA 1082.693899
ARS 1670.734605
AUD 1.659264
AWG 2.120816
AZN 2.005897
BAM 1.955959
BBD 2.376894
BDT 144.211742
BGN 1.945361
BHD 0.445145
BIF 3501.385083
BMD 1.180691
BND 1.493922
BOB 8.154664
BRL 6.083272
BSD 1.180096
BTN 107.379743
BWP 15.532265
BYN 3.416278
BYR 23141.546188
BZD 2.373493
CAD 1.611915
CDF 2544.389286
CHF 0.907078
CLF 0.025943
CLP 1024.237118
CNY 8.077581
CNH 8.10352
COP 4451.913983
CRC 556.845338
CUC 1.180691
CUP 31.288315
CVE 110.273979
CZK 24.239247
DJF 210.14711
DKK 7.471844
DOP 71.2358
DZD 153.46149
EGP 56.610328
ERN 17.710367
ETB 183.046504
FJD 2.591026
FKP 0.874538
GBP 0.877325
GEL 3.15214
GGP 0.874538
GHS 12.580024
GIP 0.874538
GMD 86.189875
GNF 10349.842686
GTQ 9.051737
GYD 246.900103
HKD 9.237302
HNL 31.229543
HRK 7.537177
HTG 154.692595
HUF 376.969946
IDR 19828.526872
ILS 3.709366
IMP 0.874538
INR 107.519522
IQD 1545.92587
IRR 1551482.459779
ISK 143.513011
JEP 0.874538
JMD 183.994981
JOD 0.837113
JPY 184.271694
KES 152.309453
KGS 103.251736
KHR 4731.38523
KMF 493.528798
KPW 1062.5859
KRW 1701.688843
KWD 0.362024
KYD 0.98348
KZT 587.787858
LAK 25259.056596
LBP 105679.804466
LKR 364.949714
LRD 216.547631
LSL 18.779029
LTL 3.486273
LVL 0.714188
LYD 7.453607
MAD 10.80718
MDL 20.197644
MGA 5005.407541
MKD 61.679015
MMK 2479.392289
MNT 4231.300656
MOP 9.510774
MRU 47.100835
MUR 54.74866
MVR 18.253199
MWK 2046.466624
MXN 20.347641
MYR 4.594044
MZN 75.452031
NAD 18.779029
NGN 1605.787542
NIO 43.433536
NOK 11.24714
NPR 171.807989
NZD 1.971477
OMR 0.45398
PAB 1.180096
PEN 3.959522
PGK 5.150419
PHP 68.171929
PKR 329.843856
PLN 4.221974
PYG 7601.618925
QAR 4.289749
RON 5.097987
RSD 117.41025
RUB 91.385915
RWF 1724.14038
SAR 4.42886
SBD 9.502804
SCR 16.027893
SDG 710.185434
SEK 10.690491
SGD 1.494088
SHP 0.885824
SLE 28.9299
SLL 24758.501927
SOS 673.254817
SRD 44.538068
STD 24437.922628
STN 24.501995
SVC 10.325841
SYP 130.527719
SZL 18.775529
THB 36.679322
TJS 11.228814
TMT 4.144226
TND 3.420579
TOP 2.842821
TRY 51.904404
TTD 8.010652
TWD 37.044183
TZS 3028.472757
UAH 50.880943
UGX 4254.34639
USD 1.180691
UYU 45.333691
UZS 14338.167416
VES 484.75856
VND 30751.100534
VUV 140.405241
WST 3.192811
XAF 656.010412
XAG 0.012808
XAU 0.000226
XCD 3.190877
XCG 2.126873
XDR 0.816406
XOF 656.010412
XPF 119.331742
YER 281.594871
ZAR 18.850489
ZMK 10627.634288
ZMW 22.298816
ZWL 380.182063
  • AEX

    4.6000

    1027.02

    +0.45%

  • BEL20

    4.8900

    5443.76

    +0.09%

  • PX1

    -40.5200

    8580.75

    -0.47%

  • ISEQ

    -34.2200

    13128.54

    -0.26%

  • OSEBX

    16.6900

    1892.04

    +0.89%

  • PSI20

    8.3400

    9276.09

    +0.09%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    25.3100

    3918.4

    +0.65%

  • N150

    -8.2000

    4092.87

    -0.2%

"Cela peut détruire une vie": des adolescentes américaines victimes de faux nus créés par l'IA
"Cela peut détruire une vie": des adolescentes américaines victimes de faux nus créés par l'IA / Photo: Stefani REYNOLDS - AFP/Archives

"Cela peut détruire une vie": des adolescentes américaines victimes de faux nus créés par l'IA

Ellis, adolescente texane de 14 ans, s'est réveillée un matin d'octobre avec plusieurs appels manqués et messages affolés sur son téléphone. De fausses photographies d'elle, dénudée, circulaient sur les réseaux sociaux.

Taille du texte:

"C'étaient des photos d'une de mes meilleures amies et de moi tirées d'Instagram. Des corps nus avaient été édités dessus", raconte la collégienne à l'AFP.

"Je me souviens avoir eu très très peur car ces faux nus étaient en train d'être envoyés autour de moi. Et je n'ai jamais rien fait de tel".

Comme plusieurs camarades de son collège de la périphérie de Dallas, au Texas, la jeune fille a été victime de montages hyperréalistes (deepfakes) à caractère sexuel, fabriqués sans leur consentement par un élève puis partagés sur le réseau Snapchat.

Avec la popularisation de l'intelligence artificielle (IA), il est devenu plus facile de fabriquer ces montages photo ou vidéo et de les rendre hyperréalistes, ouvrant la voie à leur utilisation à des fins de harcèlement ou d'humiliation.

"Les filles ne faisaient que pleurer, et pleurer à ne plus en finir, elles avaient honte", se souvient Anna Berry McAdams, mise au courant immédiatement par sa fille Ellis.

"Elle me disait: +Maman, on dirait moi+, et je lui répondais +mais non ma chérie, j'étais avec toi quand la photo a été prise et je sais que ce n'est pas le cas+", poursuit la quinquagénaire, qui se dit "horrifiée" par le réalisme des clichés.

- Quelques dollars -

Fin octobre, d'autres "deepfakes" à caractère sexuel ont été découverts dans un lycée du New Jersey, au nord-est des Etats-Unis. Une enquête a été ouverte pour identifier toutes les victimes et le ou les auteurs.

"Nous commençons à voir de plus en plus de cas émerger (...) mais en matière d'abus sexuels, de +revenge porn+ (divulgation malveillante d'images intimes) ou de +deepfakes pornographiques+, beaucoup de personnes ne se manifestent pas et souffrent en silence parce qu'elles ont peur de rendre l'affaire publique", expose Renée Cummings, criminologue et chercheuse en intelligence artificielle.

S'il est impossible d'évaluer l'ampleur du phénomène, "n'importe qui ayant un smartphone et quelques dollars peut maintenant fabriquer un +deepfake+", précise cette professeure de l'Université de Virginie.

Et ce, grâce aux récents progrès et à la démocratisation de l'IA générative, capable de produire textes, lignes de code, images et sons sur simple requête en langage courant.

De fait, les montages hyperréalistes, qui touchaient auparavant à l'image des célébrités "ayant des tas et des tas de photos et de vidéos d'eux en ligne" concernent à présent tout un chacun, explique Hany Farid, professeur à l'Université de Californie à Berkeley.

"Si vous avez un profil LinkedIn avec une photo de votre tête, quelqu'un peut créer une image sexuelle de vous", poursuit ce spécialiste en détection d'images manipulées numériquement, notant que ces montages "visent principalement les femmes et les jeunes filles".

- "Traumatisme bien réel"-

Face à cette menace grandissante, les systèmes scolaires et judiciaires apparaissent dépassés.

"Bien que votre visage ait été superposé à un corps, ce corps n'est pas vraiment le vôtre, donc ce n'est pas comme si quelqu'un avait partagé un nu de vous" aux yeux de la loi, explique Mme Cummings.

Aux Etats-Unis, aucune loi fédérale ne punit la fabrication et la transmission de fausses images à caractère sexuel, et seule une poignée d'Etats dispose de législations spécifiques.

Fin octobre, Joe Biden a exhorté les législateurs à instaurer des garde-fous, afin d'empêcher notamment "l'IA générative de produire des contenus pédocriminels ou des images intimes non consenties de personnes réelles".

Si la responsabilité des créateurs de ces images -aujourd'hui difficilement identifiables- est centrale, celle des entreprises derrière les sites ou logiciels utilisés, et des réseaux sociaux, vecteurs des contenus, doit aussi être posée, insiste M. Farid.

Car si ces images sont fausses, "le traumatisme est lui bien réel", abonde Renée Cummings, décrivant des personnes "souffrant d'anxiété, de crises de panique, de dépression ou encore de syndromes post-traumatiques après avoir été victimes de +deepfakes pornographiques". "Cela peut détruire une vie".

La texane Ellis, qui se décrit comme une adolescente "sociable" et sportive, raconte avoir à présent "constamment peur", bien que l'élève à l'origine des "deepfakes" ait été identifié et exclu temporairement du collège.

"Je ne sais pas combien de photos il a pu faire ni combien de personnes ont pu les recevoir", explique-t-elle, disant avoir demandé à changer d'établissement scolaire.

Face à cette inconnue, sa mère se mobilise pour faire reconnaître ces images comme de la "pornographie infantile" et les voir punir comme telles.

"Cela pourrait les affecter toute leur vie. Cela ne va jamais sortir d'internet. Donc quand elles vont postuler à l'université par exemple, qui sait si (ces images) ne vont pas resurgir?", s'inquiète Anna Berry McAdams.

U.Ptacek--TPP