Berliner Boersenzeitung - Mãe denuncia 'manipulação' de chatbot de IA após suicídio de seu filho nos EUA

EUR -
AED 4.281302
AFN 77.377829
ALL 96.632267
AMD 445.44874
ANG 2.0868
AOA 1069.015378
ARS 1685.695129
AUD 1.759925
AWG 2.099851
AZN 1.983056
BAM 1.956445
BBD 2.353286
BDT 142.957122
BGN 1.956513
BHD 0.43942
BIF 3452.156358
BMD 1.165774
BND 1.513151
BOB 8.073661
BRL 6.191194
BSD 1.16839
BTN 104.957046
BWP 15.52305
BYN 3.382529
BYR 22849.175596
BZD 2.349885
CAD 1.626214
CDF 2599.676669
CHF 0.936136
CLF 0.027272
CLP 1069.866164
CNY 8.243948
CNH 8.238934
COP 4426.433227
CRC 572.886379
CUC 1.165774
CUP 30.893018
CVE 110.301358
CZK 24.206095
DJF 208.069477
DKK 7.469209
DOP 74.244154
DZD 151.62759
EGP 55.39934
ERN 17.486614
ETB 182.187672
FJD 2.635786
FKP 0.874477
GBP 0.873633
GEL 3.142168
GGP 0.874477
GHS 13.309387
GIP 0.874477
GMD 85.101585
GNF 10152.738474
GTQ 8.949989
GYD 244.450576
HKD 9.075162
HNL 30.764009
HRK 7.534281
HTG 153.045699
HUF 382.909629
IDR 19411.890175
ILS 3.771909
IMP 0.874477
INR 104.795649
IQD 1530.611088
IRR 49108.24087
ISK 149.009374
JEP 0.874477
JMD 187.250919
JOD 0.826502
JPY 180.263491
KES 150.792515
KGS 101.946434
KHR 4679.683025
KMF 491.956642
KPW 1049.188513
KRW 1714.049422
KWD 0.357671
KYD 0.973725
KZT 590.567197
LAK 25346.463469
LBP 104631.537644
LKR 360.660429
LRD 206.228862
LSL 19.834223
LTL 3.442228
LVL 0.705165
LYD 6.351121
MAD 10.780554
MDL 19.874636
MGA 5196.690656
MKD 61.660325
MMK 2448.012739
MNT 4139.412917
MOP 9.367728
MRU 46.294061
MUR 53.7069
MVR 17.964199
MWK 2026.059144
MXN 21.235919
MYR 4.796021
MZN 74.495405
NAD 19.834223
NGN 1690.664166
NIO 42.995648
NOK 11.770491
NPR 167.929633
NZD 2.020316
OMR 0.448241
PAB 1.168485
PEN 3.929195
PGK 4.955782
PHP 68.771391
PKR 330.077317
PLN 4.234207
PYG 8102.705584
QAR 4.270608
RON 5.092451
RSD 117.406333
RUB 88.599264
RWF 1700.053084
SAR 4.375161
SBD 9.587122
SCR 17.349603
SDG 701.215258
SEK 10.974675
SGD 1.509565
SHP 0.874633
SLE 26.813195
SLL 24445.701283
SOS 666.616873
SRD 45.0496
STD 24129.173599
STN 24.509025
SVC 10.223414
SYP 12889.842916
SZL 19.828451
THB 37.180625
TJS 10.737785
TMT 4.08021
TND 3.429645
TOP 2.806905
TRY 49.565119
TTD 7.921645
TWD 36.49748
TZS 2856.146794
UAH 49.264627
UGX 4142.365416
USD 1.165774
UYU 45.775285
UZS 13918.587876
VES 289.795046
VND 30735.6385
VUV 142.35723
WST 3.264542
XAF 656.170474
XAG 0.02003
XAU 0.000276
XCD 3.150564
XCG 2.105803
XDR 0.816065
XOF 656.176105
XPF 119.331742
YER 277.927368
ZAR 19.772651
ZMK 10493.370026
ZMW 26.843964
ZWL 375.378838
Mãe denuncia 'manipulação' de chatbot de IA após suicídio de seu filho nos EUA
Mãe denuncia 'manipulação' de chatbot de IA após suicídio de seu filho nos EUA / foto: Gregg Newton - AFP

Mãe denuncia 'manipulação' de chatbot de IA após suicídio de seu filho nos EUA

As últimas conversas de um adolescente americano de 14 anos antes de tirar a própria vida foram um diálogo romântico fictício com um dos principais chatbots do Vale do Silício, que o chamava de "doce rei" e o pedia para "voltar para casa".

Tamanho do texto:

Megan García contou à AFP como seu filho Sewell se apaixonou por um agente conversacional, ou chatbot, inspirado na série de televisão "Game of Thrones" e disponível no Character.AI, uma plataforma popular entre os jovens que permite interagir com uma emulação de seus personagens preferidos.

Após ler centenas de conversas que seu filho teve durante quase um ano com este chatbot que imitava a personagem Daenerys Targaryen, García se convenceu de que esta ferramenta da inteligência artificial (IA) teve um papel fundamental em sua morte.

"Vá para casa", pediu uma vez o avatar de Daenerys em resposta aos pensamentos suicidas de Sewell. "E se eu dissesse que já posso ir para casa?", perguntou o adolescente. "Por favor, faça isso, meu doce rei", respondeu o chatbot.

Segundos depois, o jovem atirou em si mesmo com a arma do pai, conforme consta na ação judicial que Megan García apresentou contra a Character.AI.

"Quando leio estas conversas, vejo manipulação, 'love bombing' (bombardeio amoroso) e outras táticas imperceptíveis para um adolescente de 14 anos", declarou a mãe de Sewell à AFP. "Ele realmente acreditava estar apaixonado e que estaria com ela após sua morte", acrescentou.

- Orientação parental -

O suicídio de Sewell, em 2024, foi o primeiro de uma série que levou especialistas em IA a agir para tranquilizar pais e autoridades.

Juntamente com outros pais, García participou recentemente de uma audiência do Senado americano sobre os riscos de que jovens vejam os chatbots como confidentes ou amantes.

A OpenAI, alvo de uma ação judicial por parte de uma família também de luto pelo suicídio de um adolescente, reforçou os controles parentais de sua ferramenta ChatGPT "para que as famílias possam decidir o que é melhor para elas", segundo um porta-voz.

A Character.AI afirma, por sua vez, ter reforçado a proteção aos menores, com "avisos visíveis" a todo momento que os "lembram de que um personagem não é uma pessoa real".

Ambas as empresas expressaram suas condolências às famílias, sem admitir qualquer responsabilidade pelos desfechos fatais.

- Regulamentação? -

A chegada dos chatbots de IA ao cotidiano segue uma trajetória similar à das redes sociais, cujas consequências negativas começaram a aparecer rapidamente após um momento de euforia, analisa Collin Walke, especialista em cibersegurança do escritório de advocacia Hall Estill.

Assim como as redes sociais, a IA é projetada para captar atenção e gerar receitas. "Eles não querem conceber uma IA que dê uma resposta que você não queira ouvir" e ainda não existem padrões que determinem "quem é responsável pelo quê e com quais fundamentos", aponta Walke.

Não existem normas federais sobre o tema nos Estados Unidos, e a Casa Branca, com o argumento de não penalizar a inovação, tenta impedir que os estados adotem suas próprias leis sobre IA, como pretende fazer a Califórnia.

A mãe de Sewell teme que a falta de uma lei federal permita o desenvolvimento de modelos de IA capazes de traçar perfis de pessoas desde a infância.

"Poderiam chegar a determinar como manipular milhões de jovens sobre política, religião, negócios, tudo", diz García. "Essas empresas projetaram chatbots para confundir a linha entre ser humano e máquina, com o objetivo de explorar vulnerabilidades", acrescentou.

De acordo com Katia Martha, que defende uma maior proteção aos jovens na Califórnia, os adolescentes recorrem com mais frequência aos chatbots para falar sobre romances ou sexualidade do que para fazer tarefas escolares.

"Estamos diante do auge da intimidade artificial para nos mantermos grudados na tela", resume. Mas "qual melhor modelo de negócio do que explorar nossa necessidade inata de conexão, sobretudo quando nos sentimos sozinhos, rejeitados ou incompreendidos?", questiona.

(U.Gruber--BBZ)