Berliner Boersenzeitung - L'algorithme de Facebook ne modifie pas les croyances politiques des usagers (études)

EUR -
AED 4.29132
AFN 74.203609
ALL 95.805414
AMD 433.4011
ANG 2.091481
AOA 1072.683853
ARS 1638.188454
AUD 1.635513
AWG 2.106222
AZN 1.985616
BAM 1.953101
BBD 2.353774
BDT 143.421198
BGN 1.949178
BHD 0.440993
BIF 3476.288379
BMD 1.1685
BND 1.49084
BOB 8.105799
BRL 5.801133
BSD 1.16865
BTN 111.08949
BWP 15.864078
BYN 3.305632
BYR 22902.60579
BZD 2.350851
CAD 1.591894
CDF 2706.246758
CHF 0.916396
CLF 0.027083
CLP 1065.929196
CNY 7.981149
CNH 7.986584
COP 4356.694927
CRC 531.363456
CUC 1.1685
CUP 30.965258
CVE 110.598731
CZK 24.400589
DJF 207.665735
DKK 7.472548
DOP 69.678194
DZD 154.723383
EGP 62.546481
ERN 17.527504
ETB 183.542149
FJD 2.573271
FKP 0.860275
GBP 0.863931
GEL 3.137447
GGP 0.860275
GHS 13.081357
GIP 0.860275
GMD 85.886397
GNF 10256.527946
GTQ 8.931861
GYD 244.512118
HKD 9.155872
HNL 31.117461
HRK 7.535193
HTG 152.947888
HUF 364.799928
IDR 20373.386901
ILS 3.452103
IMP 0.860275
INR 111.408203
IQD 1530.735387
IRR 1536577.888516
ISK 143.398483
JEP 0.860275
JMD 184.115578
JOD 0.828489
JPY 183.758944
KES 150.972215
KGS 102.150883
KHR 4688.022868
KMF 491.349122
KPW 1051.650263
KRW 1724.431853
KWD 0.360026
KYD 0.974054
KZT 542.160809
LAK 25663.184483
LBP 104465.362619
LKR 373.460733
LRD 214.565871
LSL 19.666146
LTL 3.450278
LVL 0.706815
LYD 7.402479
MAD 10.80515
MDL 20.122194
MGA 4855.118969
MKD 61.663486
MMK 2453.558203
MNT 4179.346411
MOP 9.430668
MRU 46.681467
MUR 54.860921
MVR 18.059139
MWK 2034.93947
MXN 20.461022
MYR 4.633061
MZN 74.679165
NAD 19.665886
NGN 1601.931692
NIO 42.907309
NOK 10.841901
NPR 177.741105
NZD 1.989903
OMR 0.449285
PAB 1.168885
PEN 4.096709
PGK 5.062529
PHP 72.106988
PKR 325.719728
PLN 4.256204
PYG 7265.959457
QAR 4.256826
RON 5.190447
RSD 117.422683
RUB 87.636497
RWF 1706.594681
SAR 4.384441
SBD 9.378229
SCR 15.60968
SDG 701.689458
SEK 10.869375
SGD 1.492529
SHP 0.872403
SLE 28.803202
SLL 24502.862465
SOS 667.79835
SRD 43.767328
STD 24185.596923
STN 24.713781
SVC 10.227823
SYP 129.148477
SZL 19.665661
THB 38.292338
TJS 10.940881
TMT 4.095594
TND 3.371707
TOP 2.813468
TRY 52.838293
TTD 7.939029
TWD 36.968998
TZS 3049.786129
UAH 51.502231
UGX 4386.05699
USD 1.1685
UYU 47.074949
UZS 14019.666522
VES 571.329748
VND 30758.433277
VUV 138.793042
WST 3.172698
XAF 655.05181
XAG 0.015991
XAU 0.000257
XCD 3.157931
XCG 2.106689
XDR 0.812844
XOF 652.608671
XPF 119.331742
YER 278.833394
ZAR 19.63285
ZMK 10517.907557
ZMW 21.887754
ZWL 376.256618
  • AEX

    6.5300

    1011.53

    +0.65%

  • BEL20

    77.6000

    5429.67

    +1.45%

  • PX1

    24.7300

    8000.77

    +0.31%

  • ISEQ

    -90.6700

    12502.94

    -0.72%

  • OSEBX

    1.2200

    2031.33

    +0.06%

  • PSI20

    48.5900

    9216.39

    +0.53%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    74.1500

    3976.54

    +1.9%

  • N150

    19.1100

    4173.66

    +0.46%

L'algorithme de Facebook ne modifie pas les croyances politiques des usagers (études)
L'algorithme de Facebook ne modifie pas les croyances politiques des usagers (études) / Photo: JOSH EDELSON - AFP/Archives

L'algorithme de Facebook ne modifie pas les croyances politiques des usagers (études)

Les bulles d'informations dans lesquelles nous maintiennent les algorithmes des réseaux sociaux renforcent-elles la polarisation politique, ou reflètent-elles simplement des divisions déjà existantes?

Taille du texte:

Un important projet de recherche conduit au moment de l'élection américaine de 2020 a conclu que, contrairement à ce qui est souvent avancé, l'algorithme de Facebook ne modelait pas les croyances politiques de ses utilisateurs.

Cette série d'études est le résultat d'une collaboration entre Meta -- la maison-mère de Facebook et Instagram -- et un groupe de chercheurs d'universités américaines. Ces derniers ont eu accès aux données internes de l'entreprise et ont eu la possibilité de réaliser des tests en changeant l'expérience en ligne des utilisateurs.

Au total, quatre études ont été publiées dans les journaux scientifiques Science et Nature.

L'algorithme "influence de façon très importante l'expérience des gens sur la plateforme", c'est-à-dire ce qu'ils y voient et leur temps d'utilisation, ont déclaré les responsables du projet, Talia Stroud de l'université du Texas à Austin, et Joshua Tucker, de l'université de New York.

Mais "changer l'algorithme, même pour quelques mois, a peu de chance de modifier les croyances politiques des gens", ont-ils ajouté. Ces croyances ont été mesurées via des questionnaires, remplis par les utilisateurs après avoir participé aux expériences, lesquelles ont modifié les contenus affichés sur leur page d'accueil.

Les chercheurs ont reconnu que la période de trois mois observée n'était peut-être pas suffisante pour détecter un effet, sachant que la polarisation politique aux Etats-Unis se renforce depuis plusieurs décennies.

Malgré tout, "ces résultats défient le discours habituel, qui rend les bulles d'informations des réseaux sociaux responsables des problèmes contemporains de la démocratie américaine", ont écrit les auteurs d'une des études.

- Pas de "baguette magique" -

L'algorithme de Facebook, qui utilise l'apprentissage automatique pour mettre en avant tel ou tel contenu en fonction des intérêts des utilisateurs, a été accusé de renforcer leur isolement dans une bulle idéologique, ainsi que la désinformation.

Pour la première étude, environ 40.000 volontaires ont été recrutés via des invitations sur leur page Facebook et Instagram. Un groupe a conservé l'algorithme tel quel, et l'autre est passé à un affichage des publications par ordre chronologique (les plus récentes en haut).

Cet ordre chronologique était utilisé par Facebook à ses débuts, et certains observateurs estiment que repasser à cette méthode pourrait réduire l'impact néfaste des réseaux sociaux.

L'étude a montré que le groupe passé au fil chronologique passait moitié moins de temps sur Facebook et Instagram que le groupe ayant conservé l'algorithme intact.

Avec l'ordre chronologique, les utilisateurs voyaient également davantage de contenus d'amis aux opinions plus modérées, ou de groupes et de pages ayant une audience aux opinions diverses.

Mais cet ordre chronologique a également eu pour effet d'augmenter la quantité de contenus politiques et non fiables visionnés.

Malgré tous ces changements, les chercheurs n'ont pas observé de modifications des croyances politiques chez ces utilisateurs.

"Cela suggère que le fil chronologique n'est pas une baguette magique contre le problème de la polarisation politique", a conclu la co-autrice Jennifer Pan, de l'université Stanford.

- Meta salue les résultats -

Une deuxième étude a analysé l'impact des contenus repartagés, qui constituent plus d'un quart de ce que voient les utilisateurs de Facebook.

Supprimer ces partages de publications par des amis pourrait être un moyen de contrôler les contenus viraux, selon certains. C'est donc ce qui a été expérimenté pour un groupe d'utilisateurs.

En conséquence, ceux-ci ont vu la proportion de contenus politiques baisser sur leur page d'accueil, mais encore une fois, cela n'a pas eu d'impact sur leurs croyances politiques.

Une troisième étude a elle analysé l'effet des contenus issus de pages, groupes, ou utilisateurs ayant des opinions similaires, qui constituent la majorité de ce que les utilisateurs adultes américains voient sur Facebook.

Dans une expérience impliquant plus de 23.000 usagers, supprimer ce type de contenu n'a de nouveau pas eu d'impact sur l'extrémisme idéologique ou la croyance dans des affirmations erronées.

Toutefois, une quatrième étude a confirmé un effet de "ségrégation idéologique" sur Facebook. Les utilisateurs conservateurs avaient davantage tendance à être enfermés dans une bulle idéologique que les personnes de gauche, ont relevé les chercheurs.

De plus, 97% des publications qualifiées de fausses par un programme de vérification d'informations -- dont l'AFP fait partie -- étaient davantage vues par des conservateurs que des progressistes.

Dans un communiqué, Meta a salué ces résultats.

Ils "s'ajoutent aux éléments de recherches qui s'accumulent montrant qu'il n'y a pas de preuve que les réseaux sociaux sont la cause d'une polarisation dommageable, ou ont des conséquences importantes sur des comportements ou croyances politiques", a déclaré Nick Clegg, le responsable des affaires internationales de Meta.

(U.Gruber--BBZ)