Berliner Boersenzeitung - L'algorithme de Facebook ne modifie pas les croyances politiques des usagers (études)

EUR -
AED 4.211486
AFN 73.392602
ALL 95.511641
AMD 432.776502
ANG 2.052798
AOA 1051.580464
ARS 1599.186668
AUD 1.62941
AWG 2.06417
AZN 1.950449
BAM 1.94531
BBD 2.313047
BDT 140.920119
BGN 1.960169
BHD 0.433004
BIF 3405.881169
BMD 1.146761
BND 1.466391
BOB 7.93593
BRL 6.036436
BSD 1.148467
BTN 106.502991
BWP 15.573934
BYN 3.500381
BYR 22476.522195
BZD 2.309755
CAD 1.574022
CDF 2603.148425
CHF 0.908642
CLF 0.026592
CLP 1050.009345
CNY 7.881748
CNH 7.906334
COP 4249.966319
CRC 536.388929
CUC 1.146761
CUP 30.389175
CVE 111.292911
CZK 24.477592
DJF 203.802596
DKK 7.472515
DOP 68.8632
DZD 152.083519
EGP 60.016896
ERN 17.20142
ETB 180.041818
FJD 2.547878
FKP 0.859439
GBP 0.864108
GEL 3.113471
GGP 0.859439
GHS 12.505443
GIP 0.859439
GMD 84.860476
GNF 10068.564133
GTQ 8.797447
GYD 240.269731
HKD 8.987852
HNL 30.46977
HRK 7.532964
HTG 150.507919
HUF 393.566201
IDR 19547.579065
ILS 3.555017
IMP 0.859439
INR 106.869957
IQD 1502.257351
IRR 1507991.1572
ISK 143.184423
JEP 0.859439
JMD 180.327622
JOD 0.81304
JPY 183.209461
KES 148.56283
KGS 100.284227
KHR 4598.51312
KMF 490.81355
KPW 1032.060433
KRW 1720.520044
KWD 0.351666
KYD 0.956973
KZT 554.013278
LAK 24598.030854
LBP 102677.599768
LKR 357.611656
LRD 210.258849
LSL 19.288459
LTL 3.386088
LVL 0.693664
LYD 7.316422
MAD 10.749454
MDL 20.022635
MGA 4781.995185
MKD 61.659536
MMK 2408.317428
MNT 4095.201402
MOP 9.271518
MRU 46.007743
MUR 53.336139
MVR 17.728851
MWK 1990.777689
MXN 20.463899
MYR 4.513082
MZN 73.288912
NAD 19.28872
NGN 1554.469271
NIO 42.10929
NOK 11.010216
NPR 170.399271
NZD 1.976713
OMR 0.440915
PAB 1.148462
PEN 3.930523
PGK 4.934227
PHP 68.56507
PKR 320.28889
PLN 4.274375
PYG 7422.45819
QAR 4.178814
RON 5.091961
RSD 117.46143
RUB 96.189227
RWF 1673.12479
SAR 4.305733
SBD 9.22597
SCR 16.555096
SDG 689.203537
SEK 10.783811
SGD 1.471255
SHP 0.860368
SLE 28.266974
SLL 24047.024259
SOS 655.374556
SRD 42.860185
STD 23735.644363
STN 24.655369
SVC 10.048683
SYP 126.815474
SZL 19.288658
THB 37.601954
TJS 10.984502
TMT 4.013665
TND 3.345673
TOP 2.761126
TRY 50.819993
TTD 7.784751
TWD 36.749342
TZS 2985.856443
UAH 50.506773
UGX 4320.626598
USD 1.146761
UYU 46.509209
UZS 13961.819533
VES 517.123814
VND 30171.290762
VUV 137.14447
WST 3.134906
XAF 652.393596
XAG 0.015051
XAU 0.000237
XCD 3.09918
XCG 2.069767
XDR 0.810623
XOF 649.567364
XPF 119.331742
YER 273.588579
ZAR 19.457332
ZMK 10322.223659
ZMW 22.458019
ZWL 369.256682
  • AEX

    -12.8600

    999.98

    -1.27%

  • BEL20

    -37.7200

    5129.08

    -0.73%

  • PX1

    -4.7800

    7969.88

    -0.06%

  • ISEQ

    117.6200

    12369.92

    +0.96%

  • OSEBX

    13.6100

    1986.11

    +0.69%

  • PSI20

    -40.3700

    9134.62

    -0.44%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -88.6400

    3699.3

    -2.34%

  • N150

    9.7200

    3898.6

    +0.25%

L'algorithme de Facebook ne modifie pas les croyances politiques des usagers (études)
L'algorithme de Facebook ne modifie pas les croyances politiques des usagers (études) / Photo: JOSH EDELSON - AFP/Archives

L'algorithme de Facebook ne modifie pas les croyances politiques des usagers (études)

Les bulles d'informations dans lesquelles nous maintiennent les algorithmes des réseaux sociaux renforcent-elles la polarisation politique, ou reflètent-elles simplement des divisions déjà existantes?

Taille du texte:

Un important projet de recherche conduit au moment de l'élection américaine de 2020 a conclu que, contrairement à ce qui est souvent avancé, l'algorithme de Facebook ne modelait pas les croyances politiques de ses utilisateurs.

Cette série d'études est le résultat d'une collaboration entre Meta -- la maison-mère de Facebook et Instagram -- et un groupe de chercheurs d'universités américaines. Ces derniers ont eu accès aux données internes de l'entreprise et ont eu la possibilité de réaliser des tests en changeant l'expérience en ligne des utilisateurs.

Au total, quatre études ont été publiées dans les journaux scientifiques Science et Nature.

L'algorithme "influence de façon très importante l'expérience des gens sur la plateforme", c'est-à-dire ce qu'ils y voient et leur temps d'utilisation, ont déclaré les responsables du projet, Talia Stroud de l'université du Texas à Austin, et Joshua Tucker, de l'université de New York.

Mais "changer l'algorithme, même pour quelques mois, a peu de chance de modifier les croyances politiques des gens", ont-ils ajouté. Ces croyances ont été mesurées via des questionnaires, remplis par les utilisateurs après avoir participé aux expériences, lesquelles ont modifié les contenus affichés sur leur page d'accueil.

Les chercheurs ont reconnu que la période de trois mois observée n'était peut-être pas suffisante pour détecter un effet, sachant que la polarisation politique aux Etats-Unis se renforce depuis plusieurs décennies.

Malgré tout, "ces résultats défient le discours habituel, qui rend les bulles d'informations des réseaux sociaux responsables des problèmes contemporains de la démocratie américaine", ont écrit les auteurs d'une des études.

- Pas de "baguette magique" -

L'algorithme de Facebook, qui utilise l'apprentissage automatique pour mettre en avant tel ou tel contenu en fonction des intérêts des utilisateurs, a été accusé de renforcer leur isolement dans une bulle idéologique, ainsi que la désinformation.

Pour la première étude, environ 40.000 volontaires ont été recrutés via des invitations sur leur page Facebook et Instagram. Un groupe a conservé l'algorithme tel quel, et l'autre est passé à un affichage des publications par ordre chronologique (les plus récentes en haut).

Cet ordre chronologique était utilisé par Facebook à ses débuts, et certains observateurs estiment que repasser à cette méthode pourrait réduire l'impact néfaste des réseaux sociaux.

L'étude a montré que le groupe passé au fil chronologique passait moitié moins de temps sur Facebook et Instagram que le groupe ayant conservé l'algorithme intact.

Avec l'ordre chronologique, les utilisateurs voyaient également davantage de contenus d'amis aux opinions plus modérées, ou de groupes et de pages ayant une audience aux opinions diverses.

Mais cet ordre chronologique a également eu pour effet d'augmenter la quantité de contenus politiques et non fiables visionnés.

Malgré tous ces changements, les chercheurs n'ont pas observé de modifications des croyances politiques chez ces utilisateurs.

"Cela suggère que le fil chronologique n'est pas une baguette magique contre le problème de la polarisation politique", a conclu la co-autrice Jennifer Pan, de l'université Stanford.

- Meta salue les résultats -

Une deuxième étude a analysé l'impact des contenus repartagés, qui constituent plus d'un quart de ce que voient les utilisateurs de Facebook.

Supprimer ces partages de publications par des amis pourrait être un moyen de contrôler les contenus viraux, selon certains. C'est donc ce qui a été expérimenté pour un groupe d'utilisateurs.

En conséquence, ceux-ci ont vu la proportion de contenus politiques baisser sur leur page d'accueil, mais encore une fois, cela n'a pas eu d'impact sur leurs croyances politiques.

Une troisième étude a elle analysé l'effet des contenus issus de pages, groupes, ou utilisateurs ayant des opinions similaires, qui constituent la majorité de ce que les utilisateurs adultes américains voient sur Facebook.

Dans une expérience impliquant plus de 23.000 usagers, supprimer ce type de contenu n'a de nouveau pas eu d'impact sur l'extrémisme idéologique ou la croyance dans des affirmations erronées.

Toutefois, une quatrième étude a confirmé un effet de "ségrégation idéologique" sur Facebook. Les utilisateurs conservateurs avaient davantage tendance à être enfermés dans une bulle idéologique que les personnes de gauche, ont relevé les chercheurs.

De plus, 97% des publications qualifiées de fausses par un programme de vérification d'informations -- dont l'AFP fait partie -- étaient davantage vues par des conservateurs que des progressistes.

Dans un communiqué, Meta a salué ces résultats.

Ils "s'ajoutent aux éléments de recherches qui s'accumulent montrant qu'il n'y a pas de preuve que les réseaux sociaux sont la cause d'une polarisation dommageable, ou ont des conséquences importantes sur des comportements ou croyances politiques", a déclaré Nick Clegg, le responsable des affaires internationales de Meta.

(U.Gruber--BBZ)