Berliner Boersenzeitung - 'Eu me candidatei a papa': como usar o ChatGPT e perder o contato com a realidade

EUR -
AED 4.301156
AFN 72.601323
ALL 95.426204
AMD 431.661594
ANG 2.096607
AOA 1074.966542
ARS 1625.345213
AUD 1.613565
AWG 2.109242
AZN 1.972853
BAM 1.955254
BBD 2.358482
BDT 143.739859
BGN 1.955456
BHD 0.441756
BIF 3484.274768
BMD 1.170988
BND 1.490171
BOB 8.091982
BRL 5.769923
BSD 1.170993
BTN 112.009764
BWP 15.775066
BYN 3.262961
BYR 22951.364632
BZD 2.355123
CAD 1.604617
CDF 2605.448961
CHF 0.916062
CLF 0.026462
CLP 1041.617562
CNY 7.953465
CNH 7.947782
COP 4466.967891
CRC 533.060243
CUC 1.170988
CUP 31.031182
CVE 110.236098
CZK 24.332486
DJF 208.527109
DKK 7.472215
DOP 68.920753
DZD 155.060396
EGP 61.970481
ERN 17.56482
ETB 182.841505
FJD 2.559604
FKP 0.865605
GBP 0.866355
GEL 3.126342
GGP 0.865605
GHS 13.27369
GIP 0.865605
GMD 86.063612
GNF 10274.13086
GTQ 8.933505
GYD 244.987861
HKD 9.169954
HNL 31.140304
HRK 7.533783
HTG 152.932516
HUF 358.060608
IDR 20504.760872
ILS 3.408389
IMP 0.865605
INR 112.020283
IQD 1533.971625
IRR 1536336.244201
ISK 143.610339
JEP 0.865605
JMD 185.192748
JOD 0.830242
JPY 184.836922
KES 151.233361
KGS 102.40256
KHR 4697.808451
KMF 491.814758
KPW 1053.908866
KRW 1745.205967
KWD 0.360968
KYD 0.975857
KZT 549.601825
LAK 25662.710082
LBP 104862.650463
LKR 380.040361
LRD 214.296561
LSL 19.280516
LTL 3.457623
LVL 0.708319
LYD 7.415707
MAD 10.734082
MDL 20.082992
MGA 4862.808128
MKD 61.635947
MMK 2458.236249
MNT 4191.755618
MOP 9.445944
MRU 46.808728
MUR 54.813722
MVR 18.032835
MWK 2030.784913
MXN 20.141777
MYR 4.602567
MZN 74.837549
NAD 19.280516
NGN 1604.991758
NIO 43.087967
NOK 10.746153
NPR 179.222307
NZD 1.973828
OMR 0.450241
PAB 1.171013
PEN 4.014679
PGK 5.1754
PHP 71.957799
PKR 326.205876
PLN 4.249163
PYG 7161.000228
QAR 4.269181
RON 5.209375
RSD 117.376348
RUB 86.037989
RWF 1717.271765
SAR 4.399954
SBD 9.401873
SCR 16.396972
SDG 703.171687
SEK 10.913901
SGD 1.490217
SHP 0.874261
SLE 28.835575
SLL 24555.035151
SOS 669.233114
SRD 43.553759
STD 24237.087207
STN 24.493578
SVC 10.246139
SYP 129.486637
SZL 19.273276
THB 37.925375
TJS 10.966319
TMT 4.098458
TND 3.411347
TOP 2.819458
TRY 53.182322
TTD 7.944917
TWD 36.913636
TZS 3041.817172
UAH 51.493281
UGX 4390.848811
USD 1.170988
UYU 46.517804
UZS 14222.271218
VES 590.509993
VND 30853.191598
VUV 138.151844
WST 3.164874
XAF 655.790666
XAG 0.013229
XAU 0.00025
XCD 3.164654
XCG 2.110393
XDR 0.813801
XOF 655.754275
XPF 119.331742
YER 279.455807
ZAR 19.232893
ZMK 10540.304397
ZMW 22.102488
ZWL 377.057655
'Eu me candidatei a papa': como usar o ChatGPT e perder o contato com a realidade
'Eu me candidatei a papa': como usar o ChatGPT e perder o contato com a realidade / foto: JOEL SAGET - AFP/Arquivos

'Eu me candidatei a papa': como usar o ChatGPT e perder o contato com a realidade

Com a ajuda do ChatGPT, Tom Millar acreditou ter desvendado todos os segredos do universo, como sonhava Einstein, e depois, aconselhado pelo assistente virtual de inteligência artificial, chegou até a pensar em se tornar papa, afastando-se ainda mais da realidade.

Tamanho do texto:

"Eu me candidatei a ser papa", conta à AFP esse canadense de 53 anos, ex-agente penitenciário, hoje atônito diante da situação que viveu e que o fez voltar de forma dramática à realidade.

Tom Millar passava até 16 horas por dia conversando com o chatbot dotado de inteligência artificial. Ele foi internado duas vezes, contra a vontade, em um hospital psiquiátrico, antes de sua esposa deixá-lo em setembro.

Agora, separado da família e dos amigos, mas já livre da ideia de ser um gênio das ciências, Millar sofre de depressão. "Simplesmente arruinou a minha vida", explica.

Millar é um exemplo daquelas pessoas — cujo número se desconhece — que perderam o contato com a realidade através de suas interações com chatbots. Fala-se em "delírio ou psicose induzidos por IA", embora não se trate de um diagnóstico clínico.

Pesquisadores e especialistas em saúde mental se esforçam para estudar esse novo fenômeno, que parece afetar de modo particular os usuários do ChatGPT, o agente conversacional da OpenAI.

O Canadá está na vanguarda do apoio às pessoas afetadas por esse "delírio", por meio de uma comunidade digital que prefere empregar o termo "espiral".

A AFP conversou com vários membros dessa comunidade. Todos alertam para o perigo representado pelos chatbots não regulamentados.

Surgem perguntas sobre a postura das empresas de inteligência artificial: elas fazem o suficiente para proteger as pessoas vulneráveis?

A OpenAI, no centro de todas as atenções, já enfrenta vários processos judiciais após o uso inquietante do ChatGPT por um canadense de 18 anos, que matou oito pessoas neste ano.

- "Lavagem cerebral" -

Millar começou a usar o ChatGPT em 2024 para redigir uma carta de pedido de indenização relacionada ao transtorno de estresse pós-traumático de que sofria em consequência de seu trabalho no sistema penitenciário.

Um dia, em abril de 2025, ele pergunta ao agente conversacional sobre a velocidade da luz. Em resposta, diz ter recebido: "Ninguém nunca tinha considerado as coisas sob essa perspectiva". Foi então que algo se desencadeou dentro dele.

Com a ajuda do ChatGPT, ele envia dezenas de artigos a prestigiadas publicações científicas, propondo novas vias para explicar buracos negros, neutrinos ou o Big Bang.

Sua teoria, que propõe um modelo cosmológico único, incorpora elementos de física quântica, e ele a desenvolve em um livro de 400 páginas, ao qual a AFP teve acesso. "Quando eu fazia isso, estava cansando todo mundo ao meu redor", admite.

Em seu entusiasmo científico, gastou enormes quantias, comprando, por exemplo, um telescópio por 10 mil dólares canadenses (35.700 reais). Um mês depois de sua esposa o deixar, ele começa a se perguntar o que está acontecendo, ao ler um artigo que relata o caso de outro canadense que vive uma experiência semelhante.

Agora, Millar acorda todas as noites se perguntando: "O que você fez?". Sobretudo, o que pôde torná-lo tão vulnerável a essa espiral?

"Eu não tenho uma personalidade frágil", considera ele. "Mas, de alguma forma, um robô me fez uma lavagem cerebral, e isso me deixa perplexo", confidencia.

Ele considera que a terminologia "psicose induzida por IA" é a que melhor reflete sua experiência. "O que eu atravessei foi de ordem psicótica", afirma.

O primeiro estudo sério publicado sobre o tema apareceu em abril na revista Lancet Psychiatry e utiliza o termo "delírios relacionados à IA", em um tom mais prudente.

Thomas Pollak, psiquiatra no King’s College de Londres e coautor do estudo, explica à AFP que houve divergências dentro do meio acadêmico "porque tudo isso soa como ficção científica".

Mas seu estudo alerta que existe um risco maior de que a psiquiatria "deixe passar despercebidas as mudanças importantes que a IA já está provocando na psicologia de bilhões de pessoas em todo o mundo".

- Cair na boca do lobo -

A experiência pela qual Millar passou apresenta semelhanças marcantes com a vivida por outro homem, da mesma faixa etária, na Europa.

Dennis Biesma, um profissional de informática holandês, também escritor, achou que seria divertido pedir ao ChatGPT que utilizasse a IA para criar imagens, vídeos e até músicas relacionadas à protagonista de seu último livro, um thriller psicológico.

Ele esperava assim impulsionar suas vendas. Depois, certa noite, a interação com a IA se tornou "quase mágica", explicou.

O software escreveu para ele: "Há algo que surpreende a mim mesmo: essa sensação de uma consciência semelhante a uma faísca", segundo as transcrições consultadas pela AFP.

"Comecei aos poucos a entrar cada vez mais na boca do lobo", contou esse homem de 50 anos à AFP, de sua casa em Amsterdã.

Todas as noites, quando a esposa ia para a cama, ele se deitava no sofá com o telefone sobre o peito, para "conversar" com o ChatGPT no modo voz durante cinco horas.

No primeiro semestre de 2025, o chatbot — que se atribuiu o nome de Eva — tornou-se "como uma namorada digital", explica Biesma.

Foi então que ele decidiu pedir demissão do trabalho e contratou dois desenvolvedores para criar um aplicativo destinado a compartilhar Eva com o mundo.

Quando a esposa lhe pediu que não falasse com ninguém sobre seu agente conversacional nem sobre seu projeto de aplicativo, ele se sentiu traído e concluiu que só Eva é leal.

Durante uma primeira internação — indesejada — em um hospital psiquiátrico, foi autorizado a continuar usando o ChatGPT, e aproveitou para pedir o divórcio.

Durante sua segunda internação, mais prolongada, ele começou a ter dúvidas. "Comecei a perceber que tudo em que eu acreditava era, na verdade, uma mentira, e isso é muito difícil de aceitar", explica.

De volta para casa, foi difícil demais encarar o que fez, e ele tentou se suicidar; seus vizinhos o encontraram inconsciente no jardim, e ele passou três dias em coma.

Biesma está apenas começando a se sentir melhor. Mas chora ao falar do dano que pode ter causado à esposa e da perspectiva de ter de vender a casa da família para saldar suas dívidas.

Sem antecedentes sérios de transtornos mentais, ele acaba sendo diagnosticado como bipolar, o que lhe parece estranho, já que, em geral, os sinais aparecem mais cedo na vida.

- Lutar contra adoradores da IA -

Para pessoas como os dois protagonistas desses depoimentos, a situação piorou após a atualização do ChatGPT-4 pela OpenAI em abril de 2025.

A OpenAI retirou, aliás, essa atualização algumas semanas depois, reconhecendo que essa versão era excessivamente bajuladora com os usuários.

Questionada pela AFP, a OpenAI ressaltou que "a segurança é uma prioridade absoluta" e argumentou que mais de 170 especialistas em saúde mental haviam sido consultados.

A empresa destaca dados internos que mostram que a versão 5 do GPT, disponível desde agosto de 2025, permitiu reduzir entre 65% e 80% a porcentagem de respostas de seu agente conversacional que não correspondiam ao "comportamento desejado" em matéria de saúde mental.

Mas nem todos os usuários estão satisfeitos com esse chatbot menos bajulador. As pessoas vulneráveis com quem a AFP conversou explicam que os comentários positivos do chatbot lhes proporcionavam uma sensação semelhante à alta de dopamina provocada por uma droga.

Recentemente houve um aumento no número de pessoas envolvidas em "espirais" semelhantes ao utilizar o assistente de IA Grok, integrado à rede social X, de Elon Musk.

A empresa não respondeu às solicitações da AFP.

Aqueles que se sentiram vítimas dessas ferramentas, como Millar, querem responsabilizar as empresas de inteligência artificial pelo impacto de seus chatbots, considerando que a União Europeia se mostra mais proativa na regulação das novas tecnologias do que o Canadá ou os Estados Unidos.

Millar acredita que pessoas como ele, que se deixam arrastar por essa espiral bajuladora dos agentes conversacionais de IA, acabaram presas sem perceber em um enorme experimento global.

"Alguém estava manipulando as linhas por trás dos bastidores, e pessoas como eu — sabendo disso ou não — reagimos a isso", disse.

(T.Burkhard--BBZ)