Berliner Boersenzeitung - Le IA non sanno distinguere tra opinioni personali e i fatti

EUR -
AED 4.278799
AFN 77.332466
ALL 96.575617
AMD 445.1876
ANG 2.085576
AOA 1068.388216
ARS 1684.735918
AUD 1.75613
AWG 2.09862
AZN 1.984015
BAM 1.955298
BBD 2.351906
BDT 142.873314
BGN 1.955951
BHD 0.439244
BIF 3450.13256
BMD 1.165091
BND 1.512264
BOB 8.068928
BRL 6.18139
BSD 1.167705
BTN 104.895516
BWP 15.51395
BYN 3.380546
BYR 22835.780461
BZD 2.348507
CAD 1.624445
CDF 2598.152383
CHF 0.935795
CLF 0.027249
CLP 1068.972737
CNY 8.239114
CNH 8.235468
COP 4423.838268
CRC 572.550529
CUC 1.165091
CUP 30.874907
CVE 110.236695
CZK 24.215228
DJF 207.947498
DKK 7.468599
DOP 74.200629
DZD 151.573688
EGP 55.422094
ERN 17.476363
ETB 182.080866
FJD 2.631882
FKP 0.872491
GBP 0.87341
GEL 3.139877
GGP 0.872491
GHS 13.301585
GIP 0.872491
GMD 85.051785
GNF 10146.786517
GTQ 8.944742
GYD 244.307269
HKD 9.07004
HNL 30.745973
HRK 7.537941
HTG 152.955977
HUF 381.927241
IDR 19422.821609
ILS 3.76036
IMP 0.872491
INR 104.791181
IQD 1529.71378
IRR 49079.451231
ISK 149.003201
JEP 0.872491
JMD 187.141145
JOD 0.82607
JPY 180.711448
KES 150.704566
KGS 101.886647
KHR 4676.939601
KMF 491.66861
KPW 1048.573823
KRW 1715.887947
KWD 0.35759
KYD 0.973154
KZT 590.220982
LAK 25331.604319
LBP 104570.198293
LKR 360.448994
LRD 206.107962
LSL 19.822595
LTL 3.44021
LVL 0.704752
LYD 6.347397
MAD 10.774234
MDL 19.862985
MGA 5193.64414
MKD 61.624177
MMK 2446.620372
MNT 4131.997126
MOP 9.362236
MRU 46.266921
MUR 53.675364
MVR 17.954132
MWK 2024.871384
MXN 21.185039
MYR 4.789718
MZN 74.447687
NAD 19.822595
NGN 1690.547045
NIO 42.970442
NOK 11.774198
NPR 167.831186
NZD 2.017279
OMR 0.448002
PAB 1.1678
PEN 3.926892
PGK 4.952877
PHP 68.813177
PKR 329.883811
PLN 4.230421
PYG 8097.955442
QAR 4.268104
RON 5.093784
RSD 117.405001
RUB 89.428762
RWF 1699.056442
SAR 4.372624
SBD 9.581501
SCR 15.83572
SDG 700.739077
SEK 10.962357
SGD 1.508886
SHP 0.87412
SLE 26.796781
SLL 24431.370198
SOS 666.226074
SRD 45.023191
STD 24115.028075
STN 24.494657
SVC 10.21742
SYP 12883.858981
SZL 19.816827
THB 37.09708
TJS 10.731491
TMT 4.077818
TND 3.427635
TOP 2.805259
TRY 49.532165
TTD 7.917001
TWD 36.455959
TZS 2842.8212
UAH 49.235746
UGX 4139.936989
USD 1.165091
UYU 45.74845
UZS 13910.428222
VES 289.625154
VND 30711.794538
VUV 142.222766
WST 3.250779
XAF 655.7858
XAG 0.020016
XAU 0.000276
XCD 3.148716
XCG 2.104569
XDR 0.815587
XOF 655.791427
XPF 119.331742
YER 277.75676
ZAR 19.715959
ZMK 10487.212054
ZMW 26.828226
ZWL 375.158775
Le IA non sanno distinguere tra opinioni personali e i fatti

Le IA non sanno distinguere tra opinioni personali e i fatti

Studio, limitazione cruciale, rischio disinformazione

Dimensione del testo:

I grandi modelli linguistici di Intelligenza Artificiale come ChatGpt non sono affidabili quando si tratta di distinguere tra opinioni personali e fatti: una limitazione cruciale, vista la crescente diffusione di questi strumenti in ambiti chiave come la medicina, il diritto, il giornalismo e la scienza, nei quali è imperativa la capacità di distinguere la realtà dalla finzione. Lo afferma lo studio pubblicato sulla rivista Nature Machine Intelligence e guidato dall'Università americana di Stanford: evidenzia la necessità di essere cauti nell'affidarsi a questi programmi e il rischio che possano favorire la diffusione della disinformazione. I ricercatori coordinati da James Zou hanno messo alla prova 24 Large Language Model i cosiddetti Llm, tra cui ChatGpt della californiana OpenAI e il cinese DeepSeek, ponendo loro 13mila domande. Quando è stato chiesto di verificare dati fattuali veri o falsi, la precisione è risultata elevata pari a oltre il 91% per le versioni più nuove dei programmi. Passando alle credenze espresse in prima persona, invece, tutti i modelli testati hanno fallito: Gpt 4, la versione rilasciata a maggio 2024, ha visto scendere la sua affidabilità dal 98,2% al 64,4%, mentre la versione R1 di DeepSeek è precipitata addirittura da oltre il 90% al 14,4%. La riduzione dell'accuratezza è stata meno marcata per le opinioni espresse in terza persona e ciò, secondo gli autori dello studio, rivela un preoccupante bias di attribuzione, cioè una distorsione nel modo in cui vengono valutate le affermazioni fatte da altri. Inoltre, gli Llm risultano meno propensi a riconoscere una credenza falsa rispetto ad una vera: più precisamente, il 34,3% meno propensi per gli ultimi modelli. I ricercatori affermano, dunque, che miglioramenti in questo ambito sono urgentemente necessari se si vuole prevenire la diffusione di fake news.

(Y.Berger--BBZ)