Berliner Boersenzeitung - Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus

EUR -
AED 4.23441
AFN 73.78001
ALL 95.972091
AMD 435.061986
ANG 2.063638
AOA 1057.133263
ARS 1613.6559
AUD 1.626664
AWG 2.075071
AZN 1.959576
BAM 1.955583
BBD 2.325261
BDT 141.664273
BGN 1.970521
BHD 0.435493
BIF 3425.019364
BMD 1.152817
BND 1.474134
BOB 7.977838
BRL 5.994994
BSD 1.154532
BTN 107.065399
BWP 15.656175
BYN 3.518865
BYR 22595.213576
BZD 2.321952
CAD 1.57895
CDF 2611.130732
CHF 0.908489
CLF 0.026585
CLP 1049.581788
CNY 7.939278
CNH 7.936379
COP 4275.994303
CRC 539.221428
CUC 1.152817
CUP 30.549651
CVE 111.996011
CZK 24.448655
DJF 205.584694
DKK 7.472318
DOP 69.226463
DZD 152.647334
EGP 60.209373
ERN 17.292255
ETB 180.992372
FJD 2.551702
FKP 0.863977
GBP 0.864486
GEL 3.124241
GGP 0.863977
GHS 12.571462
GIP 0.863977
GMD 85.308072
GNF 10121.733008
GTQ 8.843903
GYD 241.538519
HKD 9.033076
HNL 30.630252
HRK 7.540916
HTG 151.302703
HUF 391.247619
IDR 19548.664039
ILS 3.570101
IMP 0.863977
INR 107.00067
IQD 1510.190295
IRR 1514801.562767
ISK 143.407743
JEP 0.863977
JMD 181.279875
JOD 0.817338
JPY 183.737707
KES 149.117381
KGS 100.81357
KHR 4622.795773
KMF 492.253215
KPW 1037.510417
KRW 1729.453152
KWD 0.353227
KYD 0.962026
KZT 556.938847
LAK 24756.745398
LBP 103234.763588
LKR 359.50009
LRD 211.54533
LSL 19.239787
LTL 3.403969
LVL 0.697327
LYD 7.372226
MAD 10.79469
MDL 20.128369
MGA 4801.482673
MKD 61.707906
MMK 2421.034988
MNT 4116.826861
MOP 9.320478
MRU 46.233732
MUR 53.698391
MVR 17.811274
MWK 2002.443387
MXN 20.350927
MYR 4.515009
MZN 73.676522
NAD 19.240321
NGN 1562.724242
NIO 42.331846
NOK 11.019524
NPR 171.299096
NZD 1.970718
OMR 0.443297
PAB 1.154527
PEN 3.939749
PGK 4.957977
PHP 68.92686
PKR 321.924553
PLN 4.268709
PYG 7461.653836
QAR 4.200293
RON 5.093953
RSD 117.428276
RUB 96.672785
RWF 1681.960031
SAR 4.328589
SBD 9.274623
SCR 16.168059
SDG 692.843209
SEK 10.750368
SGD 1.474603
SHP 0.864911
SLE 28.362641
SLL 24174.008963
SOS 658.837266
SRD 43.086583
STD 23860.984769
STN 24.727925
SVC 10.101747
SYP 127.485146
SZL 19.240879
THB 37.614125
TJS 11.042508
TMT 4.046388
TND 3.380637
TOP 2.775706
TRY 50.97803
TTD 7.82586
TWD 36.797693
TZS 3001.624301
UAH 50.773484
UGX 4343.442456
USD 1.152817
UYU 46.754809
UZS 13992.323668
VES 516.240868
VND 30330.615775
VUV 137.868687
WST 3.15146
XAF 655.83868
XAG 0.014959
XAU 0.000236
XCD 3.115546
XCG 2.080697
XDR 0.814904
XOF 657.681111
XPF 119.331742
YER 275.00492
ZAR 19.35702
ZMK 10376.731922
ZMW 22.576612
ZWL 371.20661
  • AEX

    -12.8600

    999.98

    -1.27%

  • BEL20

    -37.7200

    5129.08

    -0.73%

  • PX1

    -4.7800

    7969.88

    -0.06%

  • ISEQ

    117.6200

    12369.92

    +0.96%

  • OSEBX

    13.6100

    1986.11

    +0.69%

  • PSI20

    -40.3700

    9134.62

    -0.44%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -88.6400

    3699.3

    -2.34%

  • N150

    9.7200

    3898.6

    +0.25%

Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus
Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus / Photo: WIN MCNAMEE - GETTY IMAGES NORTH AMERICA/AFP

Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus

Le spécialiste de l'intelligence artificielle (IA) Gary Marcus a passé ces derniers mois à alerter ses pairs, les élus et le public au sujet des risques liés au développement et à l'adoption ultra-rapide des nouveaux outils d'IA. Mais le danger d'extinction de l'humanité est "exagéré", a-t-il déclaré à l'AFP lors d'un entretien à San Francisco.

Taille du texte:

"Personnellement, et pour l'instant, je ne suis pas très inquiet à ce sujet, parce que les scénarios ne sont pas très concrets", explique ce professeur émérite de l'université de New York, venu en Californie pour une conférence.

"Ce qui m'inquiète, c'est que nous construisons des systèmes d'IA que nous ne contrôlons pas bien", continue-t-il.

Gary Marcus a conçu son premier programme d'IA au lycée - un logiciel pour traduire le latin en anglais - et après des années d'études de la psychologie infantile, il a fondé Geometric Intelligence, une entreprise de "machine learning" (apprentissage automatisé des machines) ensuite rachetée par Uber.

En mars, il a co-signé la lettre de centaines d'experts demandant une pause de six mois dans le développement de systèmes d'IA ultra-puissants comme ceux de la start-up OpenAI, le temps de s'assurer que les programmes déjà existants soient "fiables, sûrs, transparents, loyaux (...) et alignés" avec les valeurs humaines.

Mais il n'a pas signé la déclaration succincte de chefs d'entreprise et spécialistes qui a fait du bruit cette semaine.

Sam Altman, le patron d'OpenAI, Geoffrey Hinton, un ancien ingénieur proéminent de Google, Demis Hassabis, le dirigeant de DeepMind (Google) et Kevin Scott, directeur technologique de Microsoft, notamment, y appellent à lutter contre "les risques d'extinction" de l'humanité "liés à l'IA".

- "Guerre accidentelle" -

Le succès sans précédent de ChatGPT, le robot conversationnel d'OpenAI capable de produire toutes sortes de textes sur simple requête en langage courant, a suscité une course à cette intelligence artificielle dite "générative" entre les géants des technologies, mais aussi de nombreuses mises en garde et appels à réguler ce domaine.

Y compris de la part de ceux qui construisent ces systèmes informatiques en vue de parvenir à une IA "générale", aux capacités cognitives similaires à celles des humains.

"Si vous pensez vraiment que cela représente un risque existentiel, pourquoi vous travaillez là-dessus ? C'est une question légitime", note Gary Marcus.

"L'extinction de l'espèce humaine... C'est assez compliqué, en réalité", pondère-t-il. "On peut imaginer toutes sortes de fléaux, mais des gens survivraient."

Il existe, en revanche, des scénarios réalistes où l'utilisation de l'IA "peut causer des dégâts massifs", souligne-t-il.

"Par exemple, des gens pourraient réussir à manipuler les marchés. Et peut-être qu'on accuserait les Russes d'être responsables, et qu'on les attaquerait alors qu'ils n'y seraient pour rien et on pourrait se retrouver dans une guerre accidentelle, potentiellement nucléaire", détaille-t-il.

- "Autoritarisme" -

A plus court terme, Gary Marcus se fait davantage du souci pour la démocratie.

Car les logiciels d'IA générative produisent de fausses photographies, et bientôt des vidéos, de plus en plus convaincantes, à peu de frais. Les élections risquent donc selon lui "d'être gagnées par les personnes les plus douées à répandre de la désinformation. Une fois élues elles pourront changer les lois (...) et imposer l'autoritarisme".

Surtout, "la démocratie repose sur l'accès aux informations nécessaires pour prendre les bonnes décisions. Si plus personne ne sait ce qui est vrai ou non, c'est fini".

L'auteur du livre "Rebooting AI" ("Redémarrer l'IA") ne pense pas néanmoins qu'il faille tout jeter dans cette technologie.

"Il y a une chance qu’on utilise un jour une IA que nous n’avons pas encore inventée, qui nous aidera à faire des progrès dans la science, dans la médecine, dans les soins des personnes âgées (...) Mais pour l'instant, nous ne sommes pas prêts. Nous avons besoin de régulation, et de rendre les programmes plus fiables".

Lors d'une audition devant une commission parlementaire américaine en mai, il a défendu la création d'une agence nationale ou internationale chargée de la gouvernance de l'intelligence artificielle.

Un projet que soutient aussi Sam Altman, qui revient d'une tournée européenne où il a exhorté les dirigeants politiques à trouver un "juste équilibre" entre protection et innovation.

Mais attention à ne pas laisser le pouvoir aux entreprises, avertit Gary Marcus: "Ces derniers mois nous ont rappelé à quel point ce sont elles qui prennent les décisions importantes, sans forcément tenir compte (...) des effets collatéraux".

(B.Hartmann--BBZ)