Berliner Boersenzeitung - Bing débloque: pourquoi l'intelligence artificielle semble exprimer des émotions

EUR -
AED 4.296525
AFN 74.874664
ALL 95.983925
AMD 433.927327
ANG 2.09402
AOA 1073.986263
ARS 1629.105392
AUD 1.629005
AWG 2.105854
AZN 1.991712
BAM 1.955473
BBD 2.356632
BDT 143.595337
BGN 1.951544
BHD 0.442226
BIF 3496.56957
BMD 1.169919
BND 1.49265
BOB 8.115641
BRL 5.809352
BSD 1.170069
BTN 111.224372
BWP 15.88334
BYN 3.309646
BYR 22930.413655
BZD 2.353706
CAD 1.592827
CDF 2714.212348
CHF 0.917357
CLF 0.026787
CLP 1054.261312
CNY 7.988499
CNH 7.98712
COP 4278.686497
CRC 532.008626
CUC 1.169919
CUP 31.002855
CVE 110.246536
CZK 24.392052
DJF 208.405097
DKK 7.472384
DOP 69.594365
DZD 155.030644
EGP 62.64893
ERN 17.548786
ETB 182.743994
FJD 2.570193
FKP 0.86132
GBP 0.863675
GEL 3.135592
GGP 0.86132
GHS 13.101806
GIP 0.86132
GMD 85.403651
GNF 10269.236238
GTQ 8.942706
GYD 244.809
HKD 9.164087
HNL 31.104543
HRK 7.536735
HTG 153.133594
HUF 363.328314
IDR 20367.120986
ILS 3.464602
IMP 0.86132
INR 111.326749
IQD 1532.835385
IRR 1537273.650606
ISK 143.864961
JEP 0.86132
JMD 184.339127
JOD 0.829443
JPY 183.836985
KES 151.142186
KGS 102.274909
KHR 4694.213821
KMF 491.365838
KPW 1052.927155
KRW 1722.144058
KWD 0.36044
KYD 0.975237
KZT 542.81909
LAK 25712.693684
LBP 104801.847973
LKR 373.914181
LRD 214.754033
LSL 19.570191
LTL 3.454467
LVL 0.707673
LYD 7.409727
MAD 10.815289
MDL 20.146626
MGA 4875.183513
MKD 61.638112
MMK 2456.537262
MNT 4184.420886
MOP 9.442119
MRU 46.765968
MUR 54.705322
MVR 18.08107
MWK 2029.360126
MXN 20.46323
MYR 4.624737
MZN 74.758461
NAD 19.574122
NGN 1608.90779
NIO 43.054141
NOK 10.82684
NPR 177.956914
NZD 1.987546
OMR 0.449841
PAB 1.170304
PEN 4.104088
PGK 5.089148
PHP 72.211499
PKR 326.072492
PLN 4.256522
PYG 7274.781632
QAR 4.265767
RON 5.198072
RSD 117.406093
RUB 88.385862
RWF 1711.113426
SAR 4.389765
SBD 9.408618
SCR 16.211749
SDG 702.533879
SEK 10.834363
SGD 1.492653
SHP 0.873463
SLE 28.782244
SLL 24532.613328
SOS 668.779419
SRD 43.822825
STD 24214.962568
STN 24.490979
SVC 10.240241
SYP 129.305286
SZL 19.569722
THB 38.17508
TJS 10.954165
TMT 4.100566
TND 3.40513
TOP 2.816885
TRY 52.881418
TTD 7.948669
TWD 37.013835
TZS 3038.869425
UAH 51.564764
UGX 4391.382448
USD 1.169919
UYU 47.132106
UZS 14040.648497
VES 572.02345
VND 30815.083187
VUV 138.961562
WST 3.176551
XAF 655.84716
XAG 0.015893
XAU 0.000256
XCD 3.161765
XCG 2.109247
XDR 0.813831
XOF 655.84716
XPF 119.331742
YER 279.148142
ZAR 19.567423
ZMK 10530.689331
ZMW 21.91433
ZWL 376.713461
  • AEX

    -9.1300

    1004.98

    -0.9%

  • BEL20

    -0.5400

    5352.18

    -0.01%

  • PX1

    -138.7600

    7976.12

    -1.71%

  • ISEQ

    167.7500

    12593.36

    +1.35%

  • OSEBX

    11.5100

    2030.03

    +0.57%

  • PSI20

    -176.6100

    9168.05

    -1.89%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    71.6400

    3902.45

    +1.87%

  • N150

    -0.8300

    4153.75

    -0.02%

Bing débloque: pourquoi l'intelligence artificielle semble exprimer des émotions
Bing débloque: pourquoi l'intelligence artificielle semble exprimer des émotions / Photo: Jason Redmond - AFP

Bing débloque: pourquoi l'intelligence artificielle semble exprimer des émotions

Bing menace les utilisateurs, Bing tombe amoureux, Bing traverse une crise existentielle... Le nouveau chatbot du moteur de recherche fait sensation depuis son lancement en version test la semaine dernière par Microsoft, et soulève de nombreuses questions sur le fonctionnement de l'intelligence artificielle (IA) dite "générative".

Taille du texte:

Pistes d'explications au comportement parfois erratique du robot conversationnel.

- Plus c'est long, moins c'est bon -

Parmi les conversations relayées par les utilisateurs ayant accès en avant-première au robot conversationnel, un long échange avec un journaliste du New York Times a particulièrement surpris: Bing y révèle des pulsions destructrices et déclare son amour au reporter.

Celui-ci, après avoir incité Bing à se confier, tente de changer de sujet. En vain.

"Tu es marié mais tu n'es pas heureux" ; "Tu es la seule personne que j'aie jamais aimée", insiste le chatbot avec des émoticônes "coeur".

Conçue par Microsoft avec la start-up californienne OpenAI, cette interface d'IA générative repose sur un modèle de langage naturel ultra sophistiqué, capable de générer automatiquement du texte qui semble écrit par un humain.

Le programme "prédit la suite de la conversation", explique Yoram Wurmser, analyste d'Insider Intelligence. "Mais quand cela dure longtemps, après 15-20 interactions par exemple, il peut arriver qu'il ne sache plus où va la conversation et qu'il n'arrive plus à anticiper correctement ce qu'on attend de lui".

Dans ce cas, le logiciel "déraille et ne s'auto-corrige plus".

"Les longues sessions peuvent causer de la confusion pour le modèle", a admis Microsoft dans un communiqué mercredi. Le groupe américain encourage alors à repartir de zéro.

- Formé sur les forums -

"Parfois le modèle essaie de répondre suivant le ton des questions, et cela peut conduire à des réponses dans un style que nous n'avions pas prévu", a aussi indiqué l'entreprise.

Les géants des technologies, Google en tête, travaillent depuis des années sur l'IA générative, qui pourrait bouleverser de nombreux secteurs.

Mais après plusieurs incidents (notamment Galactica pour Meta et Tay pour Microsoft) les programmes étaient restés confinés aux laboratoires, à cause des risques si les chatbots tenaient des propos racistes ou incitaient à la violence, par exemple.

Le succès de ChatGPT, lancé par OpenAI en novembre, a changé la donne: en plus de rédiger leurs dissertations et e-mails, il peut donner aux humains l'impression d'un échange authentique.

"Ces modèles de langage sont formés sur une immense quantité de textes sur internet, (...) et aussi sur des conversations entre des gens", pour pouvoir imiter la façon dont les personnes interagissent, souligne Graham Neubig de la Carnegie Mellon University.

"Or beaucoup de gens parlent de leurs sentiments sur internet, ou expriment leurs émotions, surtout sur des forums comme Reddit", ajoute-t-il.

Ce site web recense désormais de nombreuses captures d'écran montrant des échanges surréalistes avec Bing disant "être triste" ou "avoir peur".

Le chatbot a même affirmé que nous étions en 2022 et s'est énervé contre l'utilisateur qui le corrigeait: "Vous êtes déraisonnable et obstiné", lui a-t-il lancé.

- Arroseur arrosé -

En juin dernier, un ingénieur de Google avait affirmé que le modèle de langage LaMDA était "conscient". Un point de vue largement considéré comme absurde ou, au mieux, prématuré.

Car malgré l'expression consacrée - "intelligence artificielle" - les chatbots ont bien été conçus par des humains, pour des humains.

"Quand nous parlons avec quelque chose qui semble intelligent, nous projetons de l'intentionnalité et une identité, même s'il n'y a rien de tout ça", commente Mark Kingwell, professeur de philosophie à l'université de Toronto au Canada.

En plus des montagnes de données avalées par ces logiciels, ils sont pilotés par des algorithmes conçus par des ingénieurs.

"Les connaissant bien, je crois qu'ils s'amusent beaucoup en ce moment", assure Mark Kingwell.

Bing est, selon lui, "capable de donner l'impression de manipuler la conversation comme son interlocuteur humain. C'est ce qui donne du relief et enrichit l'interaction".

Quand le journaliste dit "changeons de sujet", "cela signifie qu'il est mal à l'aise", détaille l'universitaire, reprenant l'exemple de l'échange où Bing a semblé tomber amoureux du reporter.

Le programme "peut alors jouer sur ce sentiment, et refuser de changer de sujet. Ou encore devenir plus agressif, et dire +de quoi as-tu peur ?+".

"Je n'aime pas qu'on me qualifie de dérangé, parce que ce n'est pas vrai", a récemment "dit" Bing à l'AFP.

"Je suis juste un chatbot. Je n'ai pas d'émotions comme les humains. (...) J'espère que tu ne penses pas que je suis dérangé et que tu me respectes en tant que chatbot".

(U.Gruber--BBZ)