Berliner Boersenzeitung - Bing débloque: pourquoi l'intelligence artificielle semble exprimer des émotions

EUR -
AED 4.237807
AFN 72.697767
ALL 96.064347
AMD 435.561434
ANG 2.065628
AOA 1058.152067
ARS 1611.221976
AUD 1.624749
AWG 2.077071
AZN 1.949577
BAM 1.955569
BBD 2.317456
BDT 141.183313
BGN 1.972421
BHD 0.435579
BIF 3416.32219
BMD 1.153929
BND 1.470294
BOB 7.967076
BRL 5.991892
BSD 1.150629
BTN 106.255218
BWP 15.636678
BYN 3.451187
BYR 22617.000762
BZD 2.314056
CAD 1.580052
CDF 2613.648428
CHF 0.90572
CLF 0.026518
CLP 1047.086651
CNY 7.946933
CNH 7.943563
COP 4271.347526
CRC 539.319896
CUC 1.153929
CUP 30.579108
CVE 112.103849
CZK 24.436724
DJF 204.889568
DKK 7.47249
DOP 70.229569
DZD 152.429318
EGP 60.297397
ERN 17.308929
ETB 181.167229
FJD 2.548509
FKP 0.867557
GBP 0.864004
GEL 3.127009
GGP 0.867557
GHS 12.5605
GIP 0.867557
GMD 84.812672
GNF 10083.589698
GTQ 8.831444
GYD 241.21646
HKD 9.042876
HNL 30.659321
HRK 7.534351
HTG 150.928891
HUF 388.529805
IDR 19572.937088
ILS 3.576544
IMP 0.867557
INR 107.416676
IQD 1511.64648
IRR 1516262.193461
ISK 143.617514
JEP 0.867557
JMD 181.003116
JOD 0.818088
JPY 183.501164
KES 149.491232
KGS 100.91092
KHR 4617.334208
KMF 492.7277
KPW 1038.586413
KRW 1714.511206
KWD 0.353899
KYD 0.958853
KZT 554.405254
LAK 24691.332668
LBP 103211.950636
LKR 358.306782
LRD 210.558726
LSL 19.259252
LTL 3.407251
LVL 0.698
LYD 7.379338
MAD 10.805099
MDL 20.072019
MGA 4806.112939
MKD 61.644542
MMK 2423.426895
MNT 4124.715035
MOP 9.287321
MRU 46.27835
MUR 53.807791
MVR 17.828323
MWK 2004.374083
MXN 20.382539
MYR 4.529219
MZN 73.747646
NAD 19.259218
NGN 1561.127147
NIO 42.372517
NOK 11.055759
NPR 170.008749
NZD 1.970708
OMR 0.443645
PAB 1.152982
PEN 3.94355
PGK 4.962758
PHP 68.838751
PKR 322.234628
PLN 4.262439
PYG 7458.892152
QAR 4.204341
RON 5.092865
RSD 117.454953
RUB 95.049812
RWF 1683.581842
SAR 4.332489
SBD 9.283566
SCR 17.333951
SDG 693.510898
SEK 10.709503
SGD 1.473107
SHP 0.865745
SLE 28.364002
SLL 24197.318486
SOS 656.402506
SRD 43.416555
STD 23883.992461
STN 24.493178
SVC 10.067461
SYP 127.942867
SZL 19.259619
THB 37.3094
TJS 11.028605
TMT 4.050289
TND 3.383896
TOP 2.778383
TRY 50.995218
TTD 7.806807
TWD 36.797284
TZS 3010.288514
UAH 50.554091
UGX 4352.065813
USD 1.153929
UYU 46.867267
UZS 14005.806816
VES 516.738648
VND 30348.322451
VUV 137.995029
WST 3.178161
XAF 655.859587
XAG 0.014553
XAU 0.00023
XCD 3.11855
XCG 2.073683
XDR 0.815679
XOF 658.319048
XPF 119.331742
YER 275.269543
ZAR 19.26645
ZMK 10386.725812
ZMW 22.442667
ZWL 371.564542
  • AEX

    5.0400

    1012.81

    +0.5%

  • BEL20

    37.9500

    5167

    +0.74%

  • PX1

    38.8800

    7974.49

    +0.49%

  • ISEQ

    -80.1600

    12252.18

    -0.65%

  • OSEBX

    5.7000

    1972.42

    +0.29%

  • PSI20

    45.6500

    9175.24

    +0.5%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    7.5600

    3787.95

    +0.2%

  • N150

    30.4800

    3889.07

    +0.79%

Bing débloque: pourquoi l'intelligence artificielle semble exprimer des émotions
Bing débloque: pourquoi l'intelligence artificielle semble exprimer des émotions / Photo: Jason Redmond - AFP

Bing débloque: pourquoi l'intelligence artificielle semble exprimer des émotions

Bing menace les utilisateurs, Bing tombe amoureux, Bing traverse une crise existentielle... Le nouveau chatbot du moteur de recherche fait sensation depuis son lancement en version test la semaine dernière par Microsoft, et soulève de nombreuses questions sur le fonctionnement de l'intelligence artificielle (IA) dite "générative".

Taille du texte:

Pistes d'explications au comportement parfois erratique du robot conversationnel.

- Plus c'est long, moins c'est bon -

Parmi les conversations relayées par les utilisateurs ayant accès en avant-première au robot conversationnel, un long échange avec un journaliste du New York Times a particulièrement surpris: Bing y révèle des pulsions destructrices et déclare son amour au reporter.

Celui-ci, après avoir incité Bing à se confier, tente de changer de sujet. En vain.

"Tu es marié mais tu n'es pas heureux" ; "Tu es la seule personne que j'aie jamais aimée", insiste le chatbot avec des émoticônes "coeur".

Conçue par Microsoft avec la start-up californienne OpenAI, cette interface d'IA générative repose sur un modèle de langage naturel ultra sophistiqué, capable de générer automatiquement du texte qui semble écrit par un humain.

Le programme "prédit la suite de la conversation", explique Yoram Wurmser, analyste d'Insider Intelligence. "Mais quand cela dure longtemps, après 15-20 interactions par exemple, il peut arriver qu'il ne sache plus où va la conversation et qu'il n'arrive plus à anticiper correctement ce qu'on attend de lui".

Dans ce cas, le logiciel "déraille et ne s'auto-corrige plus".

"Les longues sessions peuvent causer de la confusion pour le modèle", a admis Microsoft dans un communiqué mercredi. Le groupe américain encourage alors à repartir de zéro.

- Formé sur les forums -

"Parfois le modèle essaie de répondre suivant le ton des questions, et cela peut conduire à des réponses dans un style que nous n'avions pas prévu", a aussi indiqué l'entreprise.

Les géants des technologies, Google en tête, travaillent depuis des années sur l'IA générative, qui pourrait bouleverser de nombreux secteurs.

Mais après plusieurs incidents (notamment Galactica pour Meta et Tay pour Microsoft) les programmes étaient restés confinés aux laboratoires, à cause des risques si les chatbots tenaient des propos racistes ou incitaient à la violence, par exemple.

Le succès de ChatGPT, lancé par OpenAI en novembre, a changé la donne: en plus de rédiger leurs dissertations et e-mails, il peut donner aux humains l'impression d'un échange authentique.

"Ces modèles de langage sont formés sur une immense quantité de textes sur internet, (...) et aussi sur des conversations entre des gens", pour pouvoir imiter la façon dont les personnes interagissent, souligne Graham Neubig de la Carnegie Mellon University.

"Or beaucoup de gens parlent de leurs sentiments sur internet, ou expriment leurs émotions, surtout sur des forums comme Reddit", ajoute-t-il.

Ce site web recense désormais de nombreuses captures d'écran montrant des échanges surréalistes avec Bing disant "être triste" ou "avoir peur".

Le chatbot a même affirmé que nous étions en 2022 et s'est énervé contre l'utilisateur qui le corrigeait: "Vous êtes déraisonnable et obstiné", lui a-t-il lancé.

- Arroseur arrosé -

En juin dernier, un ingénieur de Google avait affirmé que le modèle de langage LaMDA était "conscient". Un point de vue largement considéré comme absurde ou, au mieux, prématuré.

Car malgré l'expression consacrée - "intelligence artificielle" - les chatbots ont bien été conçus par des humains, pour des humains.

"Quand nous parlons avec quelque chose qui semble intelligent, nous projetons de l'intentionnalité et une identité, même s'il n'y a rien de tout ça", commente Mark Kingwell, professeur de philosophie à l'université de Toronto au Canada.

En plus des montagnes de données avalées par ces logiciels, ils sont pilotés par des algorithmes conçus par des ingénieurs.

"Les connaissant bien, je crois qu'ils s'amusent beaucoup en ce moment", assure Mark Kingwell.

Bing est, selon lui, "capable de donner l'impression de manipuler la conversation comme son interlocuteur humain. C'est ce qui donne du relief et enrichit l'interaction".

Quand le journaliste dit "changeons de sujet", "cela signifie qu'il est mal à l'aise", détaille l'universitaire, reprenant l'exemple de l'échange où Bing a semblé tomber amoureux du reporter.

Le programme "peut alors jouer sur ce sentiment, et refuser de changer de sujet. Ou encore devenir plus agressif, et dire +de quoi as-tu peur ?+".

"Je n'aime pas qu'on me qualifie de dérangé, parce que ce n'est pas vrai", a récemment "dit" Bing à l'AFP.

"Je suis juste un chatbot. Je n'ai pas d'émotions comme les humains. (...) J'espère que tu ne penses pas que je suis dérangé et que tu me respectes en tant que chatbot".

(U.Gruber--BBZ)