The Prague Post - L'algorithme de Facebook ne modifie pas les croyances politiques des usagers (études)

EUR -
AED 4.301343
AFN 77.611852
ALL 96.514738
AMD 446.868239
ANG 2.096972
AOA 1074.017289
ARS 1697.403887
AUD 1.766826
AWG 2.11114
AZN 1.995739
BAM 1.956099
BBD 2.35916
BDT 143.251875
BGN 1.956777
BHD 0.442668
BIF 3463.32887
BMD 1.171229
BND 1.514231
BOB 8.094236
BRL 6.490135
BSD 1.171279
BTN 104.951027
BWP 16.475516
BYN 3.442526
BYR 22956.085522
BZD 2.35576
CAD 1.615886
CDF 2996.593612
CHF 0.931783
CLF 0.027188
CLP 1066.568306
CNY 8.246564
CNH 8.23796
COP 4460.039473
CRC 584.989331
CUC 1.171229
CUP 31.037565
CVE 110.281841
CZK 24.338023
DJF 208.581852
DKK 7.472562
DOP 73.371204
DZD 152.341263
EGP 55.872532
ERN 17.568433
ETB 181.965387
FJD 2.67474
FKP 0.875628
GBP 0.875489
GEL 3.144796
GGP 0.875628
GHS 13.453054
GIP 0.875628
GMD 85.500123
GNF 10238.563486
GTQ 8.975371
GYD 245.057422
HKD 9.113976
HNL 30.857712
HRK 7.53616
HTG 153.573452
HUF 386.728509
IDR 19556.008162
ILS 3.75619
IMP 0.875628
INR 104.915577
IQD 1534.434317
IRR 49308.735131
ISK 147.141933
JEP 0.875628
JMD 187.41862
JOD 0.830448
JPY 184.770768
KES 150.983056
KGS 102.424413
KHR 4700.717826
KMF 491.916529
KPW 1054.119659
KRW 1728.453141
KWD 0.359837
KYD 0.976149
KZT 606.152563
LAK 25368.873969
LBP 104891.417505
LKR 362.65538
LRD 207.321659
LSL 19.649501
LTL 3.458335
LVL 0.708465
LYD 6.34897
MAD 10.73654
MDL 19.830028
MGA 5326.813434
MKD 61.5594
MMK 2459.639723
MNT 4161.636701
MOP 9.388034
MRU 46.876158
MUR 54.052655
MVR 18.095929
MWK 2031.110162
MXN 21.121594
MYR 4.775145
MZN 74.845892
NAD 19.649501
NGN 1710.181964
NIO 43.106583
NOK 11.874743
NPR 167.921643
NZD 2.034444
OMR 0.451419
PAB 1.171279
PEN 3.944502
PGK 4.982761
PHP 68.60009
PKR 328.173614
PLN 4.207347
PYG 7858.199991
QAR 4.264489
RON 5.07775
RSD 117.127615
RUB 94.513433
RWF 1705.460433
SAR 4.392871
SBD 9.541707
SCR 17.757712
SDG 704.49846
SEK 10.855305
SGD 1.514755
SHP 0.878725
SLE 28.168488
SLL 24560.087729
SOS 668.202038
SRD 45.023799
STD 24242.072559
STN 24.503742
SVC 10.248565
SYP 12952.131237
SZL 19.647
THB 36.805911
TJS 10.793648
TMT 4.099301
TND 3.428524
TOP 2.820038
TRY 50.065939
TTD 7.950214
TWD 36.91585
TZS 2922.446274
UAH 49.525863
UGX 4189.639781
USD 1.171229
UYU 45.987022
UZS 14081.15027
VES 330.473524
VND 30817.959199
VUV 141.64718
WST 3.265178
XAF 656.057184
XAG 0.017442
XAU 0.00027
XCD 3.165305
XCG 2.111022
XDR 0.815925
XOF 656.057184
XPF 119.331742
YER 279.225162
ZAR 19.652061
ZMK 10542.469351
ZMW 26.501047
ZWL 377.135213
  • AEX

    4.5100

    944.59

    +0.48%

  • BEL20

    19.7100

    5074.52

    +0.39%

  • PX1

    0.8200

    8151.38

    +0.01%

  • ISEQ

    28.7700

    13105.03

    +0.22%

  • OSEBX

    10.3900

    1660.14

    +0.63%

  • PSI20

    83.7200

    8211.61

    +1.03%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    46.5400

    4164.85

    +1.13%

  • N150

    9.6800

    3734.28

    +0.26%

L'algorithme de Facebook ne modifie pas les croyances politiques des usagers (études)
L'algorithme de Facebook ne modifie pas les croyances politiques des usagers (études) / Photo: JOSH EDELSON - AFP/Archives

L'algorithme de Facebook ne modifie pas les croyances politiques des usagers (études)

Les bulles d'informations dans lesquelles nous maintiennent les algorithmes des réseaux sociaux renforcent-elles la polarisation politique, ou reflètent-elles simplement des divisions déjà existantes?

Taille du texte:

Un important projet de recherche conduit au moment de l'élection américaine de 2020 a conclu que, contrairement à ce qui est souvent avancé, l'algorithme de Facebook ne modelait pas les croyances politiques de ses utilisateurs.

Cette série d'études est le résultat d'une collaboration entre Meta -- la maison-mère de Facebook et Instagram -- et un groupe de chercheurs d'universités américaines. Ces derniers ont eu accès aux données internes de l'entreprise et ont eu la possibilité de réaliser des tests en changeant l'expérience en ligne des utilisateurs.

Au total, quatre études ont été publiées dans les journaux scientifiques Science et Nature.

L'algorithme "influence de façon très importante l'expérience des gens sur la plateforme", c'est-à-dire ce qu'ils y voient et leur temps d'utilisation, ont déclaré les responsables du projet, Talia Stroud de l'université du Texas à Austin, et Joshua Tucker, de l'université de New York.

Mais "changer l'algorithme, même pour quelques mois, a peu de chance de modifier les croyances politiques des gens", ont-ils ajouté. Ces croyances ont été mesurées via des questionnaires, remplis par les utilisateurs après avoir participé aux expériences, lesquelles ont modifié les contenus affichés sur leur page d'accueil.

Les chercheurs ont reconnu que la période de trois mois observée n'était peut-être pas suffisante pour détecter un effet, sachant que la polarisation politique aux Etats-Unis se renforce depuis plusieurs décennies.

Malgré tout, "ces résultats défient le discours habituel, qui rend les bulles d'informations des réseaux sociaux responsables des problèmes contemporains de la démocratie américaine", ont écrit les auteurs d'une des études.

- Pas de "baguette magique" -

L'algorithme de Facebook, qui utilise l'apprentissage automatique pour mettre en avant tel ou tel contenu en fonction des intérêts des utilisateurs, a été accusé de renforcer leur isolement dans une bulle idéologique, ainsi que la désinformation.

Pour la première étude, environ 40.000 volontaires ont été recrutés via des invitations sur leur page Facebook et Instagram. Un groupe a conservé l'algorithme tel quel, et l'autre est passé à un affichage des publications par ordre chronologique (les plus récentes en haut).

Cet ordre chronologique était utilisé par Facebook à ses débuts, et certains observateurs estiment que repasser à cette méthode pourrait réduire l'impact néfaste des réseaux sociaux.

L'étude a montré que le groupe passé au fil chronologique passait moitié moins de temps sur Facebook et Instagram que le groupe ayant conservé l'algorithme intact.

Avec l'ordre chronologique, les utilisateurs voyaient également davantage de contenus d'amis aux opinions plus modérées, ou de groupes et de pages ayant une audience aux opinions diverses.

Mais cet ordre chronologique a également eu pour effet d'augmenter la quantité de contenus politiques et non fiables visionnés.

Malgré tous ces changements, les chercheurs n'ont pas observé de modifications des croyances politiques chez ces utilisateurs.

"Cela suggère que le fil chronologique n'est pas une baguette magique contre le problème de la polarisation politique", a conclu la co-autrice Jennifer Pan, de l'université Stanford.

- Meta salue les résultats -

Une deuxième étude a analysé l'impact des contenus repartagés, qui constituent plus d'un quart de ce que voient les utilisateurs de Facebook.

Supprimer ces partages de publications par des amis pourrait être un moyen de contrôler les contenus viraux, selon certains. C'est donc ce qui a été expérimenté pour un groupe d'utilisateurs.

En conséquence, ceux-ci ont vu la proportion de contenus politiques baisser sur leur page d'accueil, mais encore une fois, cela n'a pas eu d'impact sur leurs croyances politiques.

Une troisième étude a elle analysé l'effet des contenus issus de pages, groupes, ou utilisateurs ayant des opinions similaires, qui constituent la majorité de ce que les utilisateurs adultes américains voient sur Facebook.

Dans une expérience impliquant plus de 23.000 usagers, supprimer ce type de contenu n'a de nouveau pas eu d'impact sur l'extrémisme idéologique ou la croyance dans des affirmations erronées.

Toutefois, une quatrième étude a confirmé un effet de "ségrégation idéologique" sur Facebook. Les utilisateurs conservateurs avaient davantage tendance à être enfermés dans une bulle idéologique que les personnes de gauche, ont relevé les chercheurs.

De plus, 97% des publications qualifiées de fausses par un programme de vérification d'informations -- dont l'AFP fait partie -- étaient davantage vues par des conservateurs que des progressistes.

Dans un communiqué, Meta a salué ces résultats.

Ils "s'ajoutent aux éléments de recherches qui s'accumulent montrant qu'il n'y a pas de preuve que les réseaux sociaux sont la cause d'une polarisation dommageable, ou ont des conséquences importantes sur des comportements ou croyances politiques", a déclaré Nick Clegg, le responsable des affaires internationales de Meta.

Z.Pavlik--TPP