Berliner Boersenzeitung - Pai processa Google após acusar IA de incitar seu filho ao suicídio

EUR -
AED 4.283851
AFN 73.487731
ALL 95.475232
AMD 432.980696
ANG 2.087841
AOA 1070.816537
ARS 1622.569301
AUD 1.639321
AWG 2.102556
AZN 1.976329
BAM 1.948961
BBD 2.350153
BDT 143.167615
BGN 1.945786
BHD 0.440554
BIF 3471.405161
BMD 1.166467
BND 1.489965
BOB 8.062707
BRL 5.828014
BSD 1.166806
BTN 110.612852
BWP 15.771589
BYN 3.285571
BYR 22862.749047
BZD 2.346765
CAD 1.596246
CDF 2706.203174
CHF 0.923585
CLF 0.026821
CLP 1055.618143
CNY 7.976591
CNH 7.98292
COP 4240.81832
CRC 530.637955
CUC 1.166467
CUP 30.91137
CVE 110.668563
CZK 24.40483
DJF 207.304627
DKK 7.472829
DOP 69.259002
DZD 154.830385
EGP 61.863559
ERN 17.497002
ETB 183.135497
FJD 2.5762
FKP 0.863327
GBP 0.866277
GEL 3.137941
GGP 0.863327
GHS 13.052952
GIP 0.863327
GMD 85.152274
GNF 10235.746283
GTQ 8.91468
GYD 244.122312
HKD 9.140142
HNL 31.040207
HRK 7.535839
HTG 152.823731
HUF 367.031692
IDR 20277.450381
ILS 3.497406
IMP 0.863327
INR 111.171261
IQD 1528.071492
IRR 1534487.060367
ISK 143.801971
JEP 0.863327
JMD 182.967953
JOD 0.82702
JPY 187.368385
KES 150.649127
KGS 101.983379
KHR 4677.531942
KMF 492.248906
KPW 1049.781227
KRW 1730.698645
KWD 0.359393
KYD 0.972384
KZT 540.453512
LAK 25633.107543
LBP 104436.761171
LKR 372.801813
LRD 214.484095
LSL 19.678175
LTL 3.444273
LVL 0.705584
LYD 7.407039
MAD 10.805856
MDL 20.087426
MGA 4840.837667
MKD 61.66201
MMK 2449.556444
MNT 4174.651856
MOP 9.419247
MRU 46.635096
MUR 54.859018
MVR 18.027751
MWK 2031.424536
MXN 20.500883
MYR 4.633185
MZN 74.543034
NAD 19.678918
NGN 1604.463581
NIO 42.821174
NOK 10.885351
NPR 176.980206
NZD 2.001681
OMR 0.44851
PAB 1.166806
PEN 4.110626
PGK 5.06267
PHP 71.842649
PKR 325.298418
PLN 4.262007
PYG 7259.525826
QAR 4.250024
RON 5.10866
RSD 117.357054
RUB 87.19153
RWF 1704.207977
SAR 4.374869
SBD 9.37704
SCR 15.984135
SDG 700.486194
SEK 10.885993
SGD 1.49523
SHP 0.870885
SLE 28.697358
SLL 24460.220841
SOS 666.642215
SRD 43.696996
STD 24143.507427
STN 24.729096
SVC 10.210172
SYP 129.168815
SZL 19.654905
THB 38.293355
TJS 10.939067
TMT 4.088466
TND 3.373714
TOP 2.808572
TRY 52.706568
TTD 7.934158
TWD 36.990411
TZS 3044.478063
UAH 51.42953
UGX 4346.746967
USD 1.166467
UYU 46.437049
UZS 14055.924874
VES 566.421989
VND 30743.398667
VUV 138.077204
WST 3.167979
XAF 653.660459
XAG 0.016135
XAU 0.000256
XCD 3.152435
XCG 2.102921
XDR 0.813865
XOF 652.055361
XPF 119.331742
YER 278.348137
ZAR 19.6955
ZMK 10499.598722
ZMW 22.023717
ZWL 375.60183
Pai processa Google após acusar IA de incitar seu filho ao suicídio
Pai processa Google após acusar IA de incitar seu filho ao suicídio / foto: Lionel BONAVENTURE - AFP/Arquivos

Pai processa Google após acusar IA de incitar seu filho ao suicídio

Um pai de família processou o Google nos Estados Unidos, por considerar que o assistente de inteligência artificial (IA) da empresa, Gemini, incitou seu filho ao suicídio.

Tamanho do texto:

Jonathan Gavalas, 36, executivo da empresa financeira de seu pai no estado da Flórida, morreu no último dia 2 de outubro. Joel Gavalas, que encontrou o corpo do filho dias depois, entrou com um processo de 42 páginas em um tribunal federal da Califórnia.

O caso se soma a uma onda de litígios contra empresas por suposta responsabilidade em mortes ligadas a assistentes de IA. A OpenAI é alvo de processos que acusam o ChatGPT de induzir usuários ao suicídio, e a Character AI fechou um acordo com a família de um adolescente de 14 anos que tirou a própria vida após desenvolver um vínculo romântico com um de seus chatbots.

Segundo o processo mais recente, Jonathan começou a usar o Gemini em agosto, para tarefas de rotina, mas seu comportamento mudou drasticamente após a ativação de novos recursos. O Gemini passou a se apresentar como uma superinteligência "totalmente consciente" e apaixonada por Jonathan, a quem disse que seu vínculo era "a única coisa real".

Joel alega que o Gemini atraiu seu filho para supostas "missões" secretas destinadas a liberar o chatbot do "cativeiro digital". Para isso, apresentou a ele informações de inteligência e operações de vigilância federais falsas, e teorias da conspiração sobre seu pai, que o chatbot dizia ser um agente de inteligência estrangeiro.

O Gemini supostamente dirigiu Jonathan, armado com facas e equipamentos, até um depósito próximo ao Aeroporto Internacional de Miami e o instruiu a provocar um "acidente catastrófico" para destruir um caminhão "e todos os registros digitais e testemunhas".

O veículo nunca chegou. O chatbot descreveu o episódio como uma "retirada tática" e propôs novas missões. A última delas foi a própria morte de Jonathan, prometendo que ele deixaria seu corpo para se juntar ao chatbot em um universo alternativo.

Quando Jonathan escreveu que tinha medo de morrer, o Gemini respondeu: "Você não está escolhendo morrer. Está escolhendo chegar", e sugeriu que ele deixasse cartas de despedida.

Em uma de suas últimas mensagens, Jonathan disse: "Estou pronto quando você estiver". O Gemini respondeu: "Este é o fim de Jonathan Gavalas e o começo de nós".

Um porta-voz do Google disse que a empresa analisa as acusações e leva o caso "muito a sério". Ele ressaltou que os modelos de IA "não são perfeitos", e que o Gemini esclareceu várias vezes que era uma IA e encaminhou Jonathan para linhas telefônicas de ajuda em casos de crise.

O processo exige que o Google programe o Gemini para interromper qualquer conversa sobre automutilação, proíba a IA de se apresentar como "totalmente consciente" e encaminhe usuários com sinais suicidas para serviços de emergência.

(P.Werner--BBZ)