Berliner Boersenzeitung - Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus

EUR -
AED 4.294321
AFN 74.253619
ALL 95.872296
AMD 433.704387
ANG 2.092944
AOA 1073.434204
ARS 1639.383876
AUD 1.630848
AWG 2.107696
AZN 1.96015
BAM 1.954468
BBD 2.355421
BDT 143.521562
BGN 1.950542
BHD 0.441304
BIF 3478.721029
BMD 1.169318
BND 1.491883
BOB 8.111471
BRL 5.829991
BSD 1.169468
BTN 111.167228
BWP 15.875179
BYN 3.307945
BYR 22918.632663
BZD 2.352497
CAD 1.592787
CDF 2708.140315
CHF 0.916739
CLF 0.027102
CLP 1066.675183
CNY 7.986734
CNH 7.98829
COP 4361.123466
CRC 531.735296
CUC 1.169318
CUP 30.986927
CVE 110.675798
CZK 24.396662
DJF 207.811219
DKK 7.472054
DOP 69.685287
DZD 154.832962
EGP 62.591601
ERN 17.53977
ETB 183.67067
FJD 2.57057
FKP 0.860877
GBP 0.864065
GEL 3.139597
GGP 0.860877
GHS 13.090504
GIP 0.860877
GMD 85.913622
GNF 10263.693503
GTQ 8.938111
GYD 244.683224
HKD 9.159616
HNL 31.138853
HRK 7.534738
HTG 153.054918
HUF 365.043672
IDR 20334.381433
ILS 3.442466
IMP 0.860877
INR 111.388823
IQD 1531.806571
IRR 1537653.160541
ISK 143.404954
JEP 0.860877
JMD 184.244419
JOD 0.829086
JPY 183.83781
KES 151.051793
KGS 102.222361
KHR 4691.303387
KMF 491.721159
KPW 1052.386191
KRW 1728.533127
KWD 0.360173
KYD 0.974736
KZT 542.540205
LAK 25681.144292
LBP 104538.465789
LKR 373.722075
LRD 214.716016
LSL 19.680048
LTL 3.452693
LVL 0.707309
LYD 7.407627
MAD 10.812674
MDL 20.136275
MGA 4858.516457
MKD 61.637266
MMK 2455.275164
MNT 4182.27105
MOP 9.437268
MRU 46.71434
MUR 54.676984
MVR 18.071781
MWK 2036.313487
MXN 20.481189
MYR 4.632873
MZN 74.731036
NAD 19.679919
NGN 1603.05293
NIO 42.937367
NOK 10.845132
NPR 177.865485
NZD 1.991121
OMR 0.449603
PAB 1.169703
PEN 4.099639
PGK 5.066072
PHP 72.252128
PKR 325.947045
PLN 4.258832
PYG 7271.044057
QAR 4.259828
RON 5.192473
RSD 117.386687
RUB 87.698649
RWF 1707.788929
SAR 4.387509
SBD 9.384792
SCR 16.054895
SDG 702.171763
SEK 10.866352
SGD 1.492989
SHP 0.873014
SLE 28.824094
SLL 24520.009172
SOS 668.263928
SRD 43.797951
STD 24202.521612
STN 24.731076
SVC 10.23498
SYP 129.238853
SZL 19.67902
THB 38.271563
TJS 10.948537
TMT 4.09846
TND 3.374069
TOP 2.815437
TRY 52.872586
TTD 7.944585
TWD 37.040504
TZS 3034.379932
UAH 51.538272
UGX 4389.126281
USD 1.169318
UYU 47.107891
UZS 14029.47757
VES 571.729555
VND 30799.251277
VUV 138.890167
WST 3.174919
XAF 655.510204
XAG 0.016054
XAU 0.000258
XCD 3.16014
XCG 2.108163
XDR 0.813413
XOF 653.066113
XPF 119.331742
YER 279.028522
ZAR 19.63192
ZMK 10525.262602
ZMW 21.903071
ZWL 376.519917
  • AEX

    -9.1300

    1004.98

    -0.9%

  • BEL20

    -0.5400

    5352.18

    -0.01%

  • PX1

    -138.7600

    7976.12

    -1.71%

  • ISEQ

    167.7500

    12593.36

    +1.35%

  • OSEBX

    11.5100

    2030.03

    +0.57%

  • PSI20

    -176.6100

    9168.05

    -1.89%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    74.1500

    3976.54

    +1.9%

  • N150

    0.0000

    4154.52

    0%

Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus
Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus / Photo: WIN MCNAMEE - GETTY IMAGES NORTH AMERICA/AFP

Les risques existentiels liés à l'IA "exagérés", selon le spécialiste Gary Marcus

Le spécialiste de l'intelligence artificielle (IA) Gary Marcus a passé ces derniers mois à alerter ses pairs, les élus et le public au sujet des risques liés au développement et à l'adoption ultra-rapide des nouveaux outils d'IA. Mais le danger d'extinction de l'humanité est "exagéré", a-t-il déclaré à l'AFP lors d'un entretien à San Francisco.

Taille du texte:

"Personnellement, et pour l'instant, je ne suis pas très inquiet à ce sujet, parce que les scénarios ne sont pas très concrets", explique ce professeur émérite de l'université de New York, venu en Californie pour une conférence.

"Ce qui m'inquiète, c'est que nous construisons des systèmes d'IA que nous ne contrôlons pas bien", continue-t-il.

Gary Marcus a conçu son premier programme d'IA au lycée - un logiciel pour traduire le latin en anglais - et après des années d'études de la psychologie infantile, il a fondé Geometric Intelligence, une entreprise de "machine learning" (apprentissage automatisé des machines) ensuite rachetée par Uber.

En mars, il a co-signé la lettre de centaines d'experts demandant une pause de six mois dans le développement de systèmes d'IA ultra-puissants comme ceux de la start-up OpenAI, le temps de s'assurer que les programmes déjà existants soient "fiables, sûrs, transparents, loyaux (...) et alignés" avec les valeurs humaines.

Mais il n'a pas signé la déclaration succincte de chefs d'entreprise et spécialistes qui a fait du bruit cette semaine.

Sam Altman, le patron d'OpenAI, Geoffrey Hinton, un ancien ingénieur proéminent de Google, Demis Hassabis, le dirigeant de DeepMind (Google) et Kevin Scott, directeur technologique de Microsoft, notamment, y appellent à lutter contre "les risques d'extinction" de l'humanité "liés à l'IA".

- "Guerre accidentelle" -

Le succès sans précédent de ChatGPT, le robot conversationnel d'OpenAI capable de produire toutes sortes de textes sur simple requête en langage courant, a suscité une course à cette intelligence artificielle dite "générative" entre les géants des technologies, mais aussi de nombreuses mises en garde et appels à réguler ce domaine.

Y compris de la part de ceux qui construisent ces systèmes informatiques en vue de parvenir à une IA "générale", aux capacités cognitives similaires à celles des humains.

"Si vous pensez vraiment que cela représente un risque existentiel, pourquoi vous travaillez là-dessus ? C'est une question légitime", note Gary Marcus.

"L'extinction de l'espèce humaine... C'est assez compliqué, en réalité", pondère-t-il. "On peut imaginer toutes sortes de fléaux, mais des gens survivraient."

Il existe, en revanche, des scénarios réalistes où l'utilisation de l'IA "peut causer des dégâts massifs", souligne-t-il.

"Par exemple, des gens pourraient réussir à manipuler les marchés. Et peut-être qu'on accuserait les Russes d'être responsables, et qu'on les attaquerait alors qu'ils n'y seraient pour rien et on pourrait se retrouver dans une guerre accidentelle, potentiellement nucléaire", détaille-t-il.

- "Autoritarisme" -

A plus court terme, Gary Marcus se fait davantage du souci pour la démocratie.

Car les logiciels d'IA générative produisent de fausses photographies, et bientôt des vidéos, de plus en plus convaincantes, à peu de frais. Les élections risquent donc selon lui "d'être gagnées par les personnes les plus douées à répandre de la désinformation. Une fois élues elles pourront changer les lois (...) et imposer l'autoritarisme".

Surtout, "la démocratie repose sur l'accès aux informations nécessaires pour prendre les bonnes décisions. Si plus personne ne sait ce qui est vrai ou non, c'est fini".

L'auteur du livre "Rebooting AI" ("Redémarrer l'IA") ne pense pas néanmoins qu'il faille tout jeter dans cette technologie.

"Il y a une chance qu’on utilise un jour une IA que nous n’avons pas encore inventée, qui nous aidera à faire des progrès dans la science, dans la médecine, dans les soins des personnes âgées (...) Mais pour l'instant, nous ne sommes pas prêts. Nous avons besoin de régulation, et de rendre les programmes plus fiables".

Lors d'une audition devant une commission parlementaire américaine en mai, il a défendu la création d'une agence nationale ou internationale chargée de la gouvernance de l'intelligence artificielle.

Un projet que soutient aussi Sam Altman, qui revient d'une tournée européenne où il a exhorté les dirigeants politiques à trouver un "juste équilibre" entre protection et innovation.

Mais attention à ne pas laisser le pouvoir aux entreprises, avertit Gary Marcus: "Ces derniers mois nous ont rappelé à quel point ce sont elles qui prennent les décisions importantes, sans forcément tenir compte (...) des effets collatéraux".

(B.Hartmann--BBZ)