Berliner Boersenzeitung - L'algorithme de Facebook ne modifie pas les croyances politiques des usagers

EUR -
AED 4.257664
AFN 73.026624
ALL 96.238144
AMD 437.582231
ANG 2.074968
AOA 1062.937298
ARS 1598.08421
AUD 1.645579
AWG 2.089361
AZN 1.97515
BAM 1.95864
BBD 2.333975
BDT 142.192527
BGN 1.981339
BHD 0.43431
BIF 3442.663586
BMD 1.159146
BND 1.482068
BOB 8.007716
BRL 6.159011
BSD 1.158876
BTN 108.338579
BWP 15.802121
BYN 3.515914
BYR 22719.261378
BZD 2.33067
CAD 1.591566
CDF 2637.057544
CHF 0.913917
CLF 0.027244
CLP 1075.745893
CNY 7.982348
CNH 8.005172
COP 4303.433806
CRC 541.282631
CUC 1.159146
CUP 30.717369
CVE 111.1046
CZK 24.515015
DJF 206.003881
DKK 7.48519
DOP 68.390029
DZD 152.108556
EGP 59.995792
ERN 17.38719
ETB 182.160246
FJD 2.566871
FKP 0.868268
GBP 0.86899
GEL 3.147128
GGP 0.868268
GHS 12.640533
GIP 0.868268
GMD 85.201694
GNF 10174.408376
GTQ 8.876835
GYD 242.454744
HKD 9.082315
HNL 30.787368
HRK 7.547552
HTG 152.028504
HUF 393.739159
IDR 19654.711213
ILS 3.60393
IMP 0.868268
INR 109.016
IQD 1518.481245
IRR 1525001.44174
ISK 144.047519
JEP 0.868268
JMD 182.063242
JOD 0.82188
JPY 184.581294
KES 150.229726
KGS 101.364887
KHR 4648.175821
KMF 494.955743
KPW 1043.174412
KRW 1744.874492
KWD 0.35536
KYD 0.965713
KZT 557.135552
LAK 24904.251971
LBP 103801.523689
LKR 361.50269
LRD 212.558441
LSL 19.717515
LTL 3.422657
LVL 0.701156
LYD 7.395793
MAD 10.850191
MDL 20.181528
MGA 4833.639175
MKD 61.634787
MMK 2433.943509
MNT 4137.774242
MOP 9.354025
MRU 46.516967
MUR 53.904625
MVR 17.920835
MWK 2013.436982
MXN 20.747095
MYR 4.565921
MZN 74.073751
NAD 19.508864
NGN 1572.092184
NIO 42.564277
NOK 11.093021
NPR 173.341379
NZD 1.985179
OMR 0.442313
PAB 1.158896
PEN 4.032714
PGK 4.997948
PHP 69.723065
PKR 323.63785
PLN 4.282755
PYG 7568.943802
QAR 4.224512
RON 5.101986
RSD 117.884032
RUB 96.003268
RWF 1691.193997
SAR 4.352659
SBD 9.33305
SCR 16.654324
SDG 696.647132
SEK 10.831104
SGD 1.486377
SHP 0.86966
SLE 28.486057
SLL 24306.724357
SOS 662.456177
SRD 43.45349
STD 23991.981659
STN 24.939026
SVC 10.139705
SYP 128.393177
SZL 19.508855
THB 38.008825
TJS 11.130786
TMT 4.068602
TND 3.372
TOP 2.790945
TRY 51.328032
TTD 7.862368
TWD 37.135217
TZS 2998.321243
UAH 50.766603
UGX 4380.333447
USD 1.159146
UYU 46.697721
UZS 14135.785719
VES 527.05282
VND 30499.449254
VUV 137.980492
WST 3.180888
XAF 656.918161
XAG 0.017031
XAU 0.000257
XCD 3.13265
XCG 2.08852
XDR 0.81819
XOF 661.296951
XPF 119.331742
YER 276.576393
ZAR 19.853279
ZMK 10433.709028
ZMW 22.627107
ZWL 373.244535
  • AEX

    -16.0300

    961.62

    -1.64%

  • BEL20

    -88.0900

    4916.79

    -1.76%

  • PX1

    -142.1000

    7665.62

    -1.82%

  • ISEQ

    -203.0200

    11881.24

    -1.68%

  • OSEBX

    -31.9800

    1966.5

    -1.6%

  • PSI20

    -190.5700

    8756.26

    -2.13%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -27.8400

    3634.93

    -0.76%

  • N150

    -58.3500

    3755.58

    -1.53%

L'algorithme de Facebook ne modifie pas les croyances politiques des usagers
L'algorithme de Facebook ne modifie pas les croyances politiques des usagers / Photo: JOSH EDELSON - AFP/Archives

L'algorithme de Facebook ne modifie pas les croyances politiques des usagers

Les bulles d'informations dans lesquelles nous maintiennent les algorithmes des réseaux sociaux renforcent-elles la polarisation politique, ou reflètent-elles simplement des divisions déjà existantes?

Taille du texte:

Un important projet de recherche conduit au moment de l'élection américaine de 2020 a conclu que, contrairement à ce qui est souvent avancé, l'algorithme de Facebook ne modelait pas les croyances politiques de ses utilisateurs.

Cette série d'études est le résultat d'une collaboration entre Meta -- la maison-mère de Facebook et Instagram -- et un groupe de chercheurs d'universités américaines. Ces derniers ont eu accès aux données internes de l'entreprise et ont eu la possibilité de réaliser des tests en changeant l'expérience en ligne des utilisateurs.

Au total, quatre études ont été publiées dans les journaux scientifiques Science et Nature.

L'algorithme "influence de façon très importante l'expérience des gens sur la plateforme", c'est-à-dire ce qu'ils y voient et leur temps d'utilisation, ont déclaré les responsables du projet, Talia Stroud de l'université du Texas à Austin, et Joshua Tucker, de l'université de New York.

Mais "changer l'algorithme, même pour quelques mois, a peu de chance de modifier les croyances politiques des gens", ont-ils ajouté. Ces croyances ont été mesurées via des questionnaires, remplis par les utilisateurs après avoir participé aux expériences, lesquelles ont modifié les contenus affichés sur leur page d'accueil.

Les chercheurs ont reconnu que la période de trois mois observée n'était peut-être pas suffisante pour détecter un effet, sachant que la polarisation politique aux Etats-Unis se renforce depuis plusieurs décennies.

Malgré tout, "ces résultats défient le discours habituel, qui rend les bulles d'informations des réseaux sociaux responsables des problèmes contemporains de la démocratie américaine", ont écrit les auteurs d'une des études.

- Pas de "baguette magique" -

L'algorithme de Facebook, qui utilise l'apprentissage automatique pour mettre en avant tel ou tel contenu en fonction des intérêts des utilisateurs, a été accusé de renforcer leur isolement dans une bulle idéologique, ainsi que la désinformation.

Pour la première étude, environ 40.000 volontaires ont été recrutés via des invitations sur leur page Facebook et Instagram. Un groupe a conservé l'algorithme tel quel, et l'autre est passé à un affichage des publications par ordre chronologique (les plus récentes en haut).

Cet ordre chronologique était utilisé par Facebook à ses débuts, et certains observateurs estiment que repasser à cette méthode pourrait réduire l'impact néfaste des réseaux sociaux.

L'étude a montré que le groupe passé au fil chronologique passait moitié moins de temps sur Facebook et Instagram que le groupe ayant conservé l'algorithme intact.

Avec l'ordre chronologique, les utilisateurs voyaient également davantage de contenus d'amis aux opinions plus modérées, ou de groupes et de pages ayant une audience aux opinions diverses.

Mais cet ordre chronologique a également eu pour effet d'augmenter la quantité de contenus politiques et non fiables visionnés.

Malgré tous ces changements, les chercheurs n'ont pas observé de modifications des croyances politiques chez ces utilisateurs.

"Cela suggère que le fil chronologique n'est pas une baguette magique contre le problème de la polarisation politique", a conclu la co-autrice Jennifer Pan, de l'université Stanford.

- Meta salue les résultats -

Une deuxième étude a analysé l'impact des contenus repartagés, qui constituent plus d'un quart de ce que voient les utilisateurs de Facebook.

Supprimer ces partages de publications par des amis pourrait être un moyen de contrôler les contenus viraux, selon certains. C'est donc ce qui a été expérimenté pour un groupe d'utilisateurs.

En conséquence, ceux-ci ont vu la proportion de contenus politiques baisser sur leur page d'accueil, mais encore une fois, cela n'a pas eu d'impact sur leurs croyances politiques.

Une troisième étude a elle analysé l'effet des contenus issus de pages, groupes, ou utilisateurs ayant des opinions similaires, qui constituent la majorité de ce que les utilisateurs adultes américains voient sur Facebook.

Dans une expérience impliquant plus de 23.000 usagers, supprimer ce type de contenu n'a de nouveau pas eu d'impact sur l'extrémisme idéologique ou la croyance dans des affirmations erronées.

Toutefois, une quatrième étude a confirmé un effet de "ségrégation idéologique" sur Facebook. Les utilisateurs conservateurs avaient davantage tendance à être enfermés dans une bulle idéologique que les personnes de gauche, ont relevé les chercheurs.

De plus, 97% des publications qualifiées de fausses par un programme de vérification d'informations -- dont l'AFP fait partie -- étaient davantage vues par des conservateurs que des progressistes.

Dans un communiqué, Meta a salué ces résultats.

Ils "s'ajoutent aux éléments de recherches qui s'accumulent montrant qu'il n'y a pas de preuve que les réseaux sociaux sont la cause d'une polarisation dommageable, ou ont des conséquences importantes sur des comportements ou croyances politiques", a déclaré Nick Clegg, le responsable des affaires internationales de Meta.

(A.Lehmann--BBZ)