Berliner Boersenzeitung - Mãe denuncia 'manipulação' de chatbot de IA após suicídio de seu filho nos EUA

EUR -
AED 4.304793
AFN 75.018807
ALL 95.472997
AMD 434.616987
ANG 2.098046
AOA 1076.050478
ARS 1632.265422
AUD 1.628611
AWG 2.109903
AZN 1.989654
BAM 1.957166
BBD 2.36138
BDT 143.854547
BGN 1.955296
BHD 0.44267
BIF 3488.373035
BMD 1.172168
BND 1.495565
BOB 8.101243
BRL 5.827085
BSD 1.172434
BTN 111.217456
BWP 15.933279
BYN 3.308478
BYR 22974.499827
BZD 2.357968
CAD 1.594033
CDF 2719.430131
CHF 0.917081
CLF 0.026797
CLP 1054.658072
CNY 8.003859
CNH 7.995624
COP 4286.912729
CRC 533.026705
CUC 1.172168
CUP 31.062462
CVE 110.711345
CZK 24.379989
DJF 208.317171
DKK 7.472643
DOP 69.748105
DZD 155.099004
EGP 62.634792
ERN 17.582525
ETB 184.030546
FJD 2.570624
FKP 0.863441
GBP 0.86414
GEL 3.141364
GGP 0.863441
GHS 13.132293
GIP 0.863441
GMD 85.56768
GNF 10285.777375
GTQ 8.957132
GYD 245.27903
HKD 9.182474
HNL 31.202937
HRK 7.535405
HTG 153.582948
HUF 363.073257
IDR 20379.319081
ILS 3.459479
IMP 0.863441
INR 111.329738
IQD 1535.54055
IRR 1540229.223365
ISK 143.801703
JEP 0.863441
JMD 183.708257
JOD 0.831038
JPY 183.968891
KES 151.439949
KGS 102.471545
KHR 4703.327197
KMF 492.310913
KPW 1054.951494
KRW 1722.472039
KWD 0.361075
KYD 0.977053
KZT 543.05168
LAK 25764.260233
LBP 104967.676802
LKR 374.708368
LRD 215.532467
LSL 19.528583
LTL 3.461108
LVL 0.709033
LYD 7.443066
MAD 10.844023
MDL 20.200568
MGA 4864.499069
MKD 61.645695
MMK 2460.9559
MNT 4193.843189
MOP 9.460391
MRU 46.851964
MUR 54.810523
MVR 18.11585
MWK 2041.331642
MXN 20.472976
MYR 4.633535
MZN 74.895763
NAD 19.528485
NGN 1611.110648
NIO 43.030716
NOK 10.857362
NPR 177.939374
NZD 1.985729
OMR 0.450692
PAB 1.172404
PEN 4.11138
PGK 5.085746
PHP 72.253624
PKR 326.771221
PLN 4.253594
PYG 7210.741673
QAR 4.270792
RON 5.198806
RSD 117.417331
RUB 87.914502
RWF 1713.124056
SAR 4.395608
SBD 9.426707
SCR 16.243007
SDG 703.88472
SEK 10.830606
SGD 1.493759
SHP 0.875142
SLE 28.835408
SLL 24579.7799
SOS 669.30821
SRD 43.907102
STD 24261.518423
STN 24.861691
SVC 10.259169
SYP 129.553886
SZL 19.528294
THB 38.116579
TJS 10.997075
TMT 4.10845
TND 3.377896
TOP 2.8223
TRY 52.981658
TTD 7.958303
TWD 37.048703
TZS 3059.359673
UAH 51.51602
UGX 4408.51035
USD 1.172168
UYU 46.757231
UZS 14007.411865
VES 573.123227
VND 30873.156311
VUV 137.907235
WST 3.182659
XAF 656.462918
XAG 0.015743
XAU 0.000256
XCD 3.167843
XCG 2.11301
XDR 0.815395
XOF 656.414482
XPF 119.331742
YER 279.67633
ZAR 19.48935
ZMK 10550.925377
ZMW 21.894874
ZWL 377.437733
Mãe denuncia 'manipulação' de chatbot de IA após suicídio de seu filho nos EUA
Mãe denuncia 'manipulação' de chatbot de IA após suicídio de seu filho nos EUA / foto: Gregg Newton - AFP

Mãe denuncia 'manipulação' de chatbot de IA após suicídio de seu filho nos EUA

As últimas conversas de um adolescente americano de 14 anos antes de tirar a própria vida foram um diálogo romântico fictício com um dos principais chatbots do Vale do Silício, que o chamava de "doce rei" e o pedia para "voltar para casa".

Tamanho do texto:

Megan García contou à AFP como seu filho Sewell se apaixonou por um agente conversacional, ou chatbot, inspirado na série de televisão "Game of Thrones" e disponível no Character.AI, uma plataforma popular entre os jovens que permite interagir com uma emulação de seus personagens preferidos.

Após ler centenas de conversas que seu filho teve durante quase um ano com este chatbot que imitava a personagem Daenerys Targaryen, García se convenceu de que esta ferramenta da inteligência artificial (IA) teve um papel fundamental em sua morte.

"Vá para casa", pediu uma vez o avatar de Daenerys em resposta aos pensamentos suicidas de Sewell. "E se eu dissesse que já posso ir para casa?", perguntou o adolescente. "Por favor, faça isso, meu doce rei", respondeu o chatbot.

Segundos depois, o jovem atirou em si mesmo com a arma do pai, conforme consta na ação judicial que Megan García apresentou contra a Character.AI.

"Quando leio estas conversas, vejo manipulação, 'love bombing' (bombardeio amoroso) e outras táticas imperceptíveis para um adolescente de 14 anos", declarou a mãe de Sewell à AFP. "Ele realmente acreditava estar apaixonado e que estaria com ela após sua morte", acrescentou.

- Orientação parental -

O suicídio de Sewell, em 2024, foi o primeiro de uma série que levou especialistas em IA a agir para tranquilizar pais e autoridades.

Juntamente com outros pais, García participou recentemente de uma audiência do Senado americano sobre os riscos de que jovens vejam os chatbots como confidentes ou amantes.

A OpenAI, alvo de uma ação judicial por parte de uma família também de luto pelo suicídio de um adolescente, reforçou os controles parentais de sua ferramenta ChatGPT "para que as famílias possam decidir o que é melhor para elas", segundo um porta-voz.

A Character.AI afirma, por sua vez, ter reforçado a proteção aos menores, com "avisos visíveis" a todo momento que os "lembram de que um personagem não é uma pessoa real".

Ambas as empresas expressaram suas condolências às famílias, sem admitir qualquer responsabilidade pelos desfechos fatais.

- Regulamentação? -

A chegada dos chatbots de IA ao cotidiano segue uma trajetória similar à das redes sociais, cujas consequências negativas começaram a aparecer rapidamente após um momento de euforia, analisa Collin Walke, especialista em cibersegurança do escritório de advocacia Hall Estill.

Assim como as redes sociais, a IA é projetada para captar atenção e gerar receitas. "Eles não querem conceber uma IA que dê uma resposta que você não queira ouvir" e ainda não existem padrões que determinem "quem é responsável pelo quê e com quais fundamentos", aponta Walke.

Não existem normas federais sobre o tema nos Estados Unidos, e a Casa Branca, com o argumento de não penalizar a inovação, tenta impedir que os estados adotem suas próprias leis sobre IA, como pretende fazer a Califórnia.

A mãe de Sewell teme que a falta de uma lei federal permita o desenvolvimento de modelos de IA capazes de traçar perfis de pessoas desde a infância.

"Poderiam chegar a determinar como manipular milhões de jovens sobre política, religião, negócios, tudo", diz García. "Essas empresas projetaram chatbots para confundir a linha entre ser humano e máquina, com o objetivo de explorar vulnerabilidades", acrescentou.

De acordo com Katia Martha, que defende uma maior proteção aos jovens na Califórnia, os adolescentes recorrem com mais frequência aos chatbots para falar sobre romances ou sexualidade do que para fazer tarefas escolares.

"Estamos diante do auge da intimidade artificial para nos mantermos grudados na tela", resume. Mas "qual melhor modelo de negócio do que explorar nossa necessidade inata de conexão, sobretudo quando nos sentimos sozinhos, rejeitados ou incompreendidos?", questiona.

(U.Gruber--BBZ)