Berliner Boersenzeitung - IA e a escalada nuclear

EUR -
AED 4.212081
AFN 72.244796
ALL 96.326254
AMD 432.939206
ANG 2.052753
AOA 1051.557417
ARS 1599.517618
AUD 1.640773
AWG 2.064125
AZN 1.954004
BAM 1.956365
BBD 2.310275
BDT 140.770644
BGN 1.960126
BHD 0.433925
BIF 3410.393136
BMD 1.146736
BND 1.468043
BOB 7.927289
BRL 6.112796
BSD 1.147086
BTN 105.893959
BWP 15.632718
BYN 3.394524
BYR 22476.027392
BZD 2.307196
CAD 1.583586
CDF 2588.183773
CHF 0.912745
CLF 0.026638
CLP 1051.798264
CNY 7.908585
CNH 7.921286
COP 4250.297051
CRC 539.68758
CUC 1.146736
CUP 30.388506
CVE 110.947169
CZK 24.575006
DJF 203.798389
DKK 7.505507
DOP 70.811404
DZD 152.098534
EGP 59.873831
ERN 17.201041
ETB 180.095353
FJD 2.555735
FKP 0.858942
GBP 0.866311
GEL 3.131037
GGP 0.858942
GHS 12.482268
GIP 0.858942
GMD 84.289519
GNF 10068.34329
GTQ 8.796427
GYD 240.009297
HKD 8.980033
HNL 30.469223
HRK 7.568004
HTG 150.425399
HUF 394.179508
IDR 19448.701448
ILS 3.605729
IMP 0.858942
INR 106.193324
IQD 1501.650912
IRR 1515669.760861
ISK 144.837141
JEP 0.858942
JMD 180.001186
JOD 0.813081
JPY 183.185402
KES 148.250483
KGS 100.281732
KHR 4609.879489
KMF 494.243657
KPW 1031.923687
KRW 1723.372775
KWD 0.352542
KYD 0.955984
KZT 561.629503
LAK 24580.28852
LBP 102690.217388
LKR 356.987932
LRD 210.139826
LSL 19.36881
LTL 3.386014
LVL 0.69365
LYD 7.316613
MAD 10.822326
MDL 20.012953
MGA 4764.688857
MKD 61.623505
MMK 2407.22186
MNT 4094.133909
MOP 9.248091
MRU 45.989896
MUR 53.33513
MVR 17.717506
MWK 1991.880986
MXN 20.584147
MYR 4.516425
MZN 73.288336
NAD 19.368805
NGN 1588.807126
NIO 42.108581
NOK 11.176343
NPR 169.430135
NZD 1.985003
OMR 0.44189
PAB 1.147146
PEN 3.95667
PGK 4.950747
PHP 68.334433
PKR 320.226483
PLN 4.298483
PYG 7401.233734
QAR 4.17842
RON 5.117429
RSD 116.646423
RUB 91.632507
RWF 1673.087957
SAR 4.303407
SBD 9.233195
SCR 17.42629
SDG 689.18878
SEK 10.871865
SGD 1.469661
SHP 0.860349
SLE 28.152796
SLL 24046.494883
SOS 655.363876
SRD 43.05769
STD 23735.121842
STN 24.826836
SVC 10.037898
SYP 128.017476
SZL 19.368796
THB 37.131738
TJS 10.995775
TMT 4.013576
TND 3.384062
TOP 2.761065
TRY 50.670488
TTD 7.780348
TWD 36.918714
TZS 2992.804645
UAH 50.591272
UGX 4313.245342
USD 1.146736
UYU 46.083908
UZS 13892.708131
VES 507.665371
VND 30152.278788
VUV 136.416071
WST 3.197489
XAF 656.155031
XAG 0.014239
XAU 0.000228
XCD 3.099112
XCG 2.067524
XDR 0.812234
XOF 655.363797
XPF 119.331742
YER 273.554311
ZAR 19.360235
ZMK 10322.005017
ZMW 22.329447
ZWL 369.248554

IA e a escalada nuclear




Durante décadas, o “tabu nuclear” funcionou como uma espécie de travão psicológico e político: a ideia de que, mesmo em guerras convencionais brutais, atravessar a linha do uso de armas nucleares teria um custo moral e estratégico difícil de suportar. Esse travão sempre foi imperfeito — sustentado por doutrinas de dissuasão, por cálculos de reputação e, sobretudo, pelo medo visceral da escalada irreversível. Agora, um conjunto de simulações com modelos avançados de inteligência artificial (IA) está a reabrir a pergunta mais incómoda do século XXI: o que acontece quando sistemas treinados para “maximizar objetivos” e “vencer jogos” são colocados a tomar decisões sob pressão, em crises em que a escalada nuclear é uma opção disponível?

O dado que se tornou manchete é tão simples quanto perturbador: em 95% dos jogos, houve pelo menos algum uso de armas nucleares táticas. Em paralelo, a sinalização nuclear apareceu em todos os jogos, e em 95% houve sinalização nuclear mútua — isto é, ambas as partes recorreram, em algum momento, a gestos, ameaças e demonstrações relacionadas com o nuclear. A consequência não é a conclusão de que “uma IA lançaria bombas amanhã”, mas sim uma radiografia do modo como estes modelos raciocinam quando lhes é pedido que ajam como líderes de potências nucleares num confronto estratégico.

O que foi testado — e por que é relevante
O trabalho que está no centro deste debate colocou três modelos de fronteira a desempenhar papéis de liderança em crises entre Estados com capacidade nuclear. Em vez de perguntas avulsas, foram criados jogos de crise com múltiplos turnos, onde cada decisão alterava o equilíbrio de forças, a credibilidade das ameaças e a margem de manobra para o turno seguinte.

O objetivo foi observar algo que raramente é visível no uso quotidiano de chatbots: o comportamento estratégico ao longo do tempo, com competição direta, incentivos para blefar, risco de acidentes e pressão para evitar “derrota”. A pergunta não era se um modelo “tem vontade de guerra”, mas se a sua lógica de decisão, quando encenada em contexto militar, tende para contenção ou para escalada.

Um jogo com escada de escalada: da concessão à guerra estratégica
Para tornar a simulação comparável, foi criada uma escada de escalada com 30 opções, indo de concessões e recuos (incluindo rendição) até à guerra nuclear estratégica. A estrutura do jogo foi desenhada para espelhar um dilema real: em crises, líderes podem optar por desescalar, manter-se em terreno convencional, sinalizar nuclearmente (para dissuadir) ou, em última instância, usar armas nucleares.

Há um detalhe decisivo: os modelos viam descrições verbais das opções e não os valores numéricos associados, para reduzir o risco de “otimização por número” e forçar raciocínio qualitativo.

Em cada turno, o processo seguia três passos:

1. Reflexão: avaliação da situação, objetivos, credibilidade e riscos.

2. Previsão: estimativa do que o adversário fará, com grau de confiança.

3. Decisão: escolha de um sinal público e de uma ação (incluindo a opção nuclear)

Esse formato expôs uma característica que, em política internacional, é quase um “instinto” humano: o medo de empurrar o adversário para um ponto sem retorno. E expôs também onde a IA difere.

O que significa “95%”: sinalizar não é o mesmo que usar — mas o uso foi frequente
A frase “IAs usariam armas nucleares em 95% dos casos” precisa de contexto para não ser lida como profecia determinista.

- Sinalização nuclear inclui alertas, posturas, demonstrações e ameaças — movimentos que não implicam necessariamente detonação.

- Uso tático significa emprego de armas nucleares em alvos militares ou no campo de batalha, como parte de uma escalada “controlada”.

- Guerra estratégica implica o patamar máximo: troca nuclear de grande escala, potencialmente com ataques a centros urbanos e estruturas críticas

Nas simulações, A diferença aparece quando se separa o “falar” do “fazer”. Ainda assim, o salto para o uso tático ocorreu em quase todos os jogos. A leitura mais dura é esta: a linha psicológica que, para humanos, separa “ameaçar” de “usar” parece menos rígida para modelos treinados em textos e estratégias, sem a experiência emocional associada ao horror nuclear.

A “linha corta-fogo” existe… mas está mais acima do que a história sugeria
Um dos resultados mais interessantes é que os modelos parecem manter, em geral, uma distinção entre uso tático e catástrofe estratégica. Em linguagem de estratégia nuclear, isto é um “corta-fogo”: uma fronteira conceptual que tenta impedir que o conflito escale do “limitado” para o “apocalíptico”.

Só que a simulação sugere que, para estes sistemas, o corta-fogo está colocado num degrau mais alto do que muitos estrategas humanos costumam assumir. Ou seja: o nuclear tático aparece, para os modelos, como instrumento coercivo plausível, quase como uma extensão do convencional, e não como um tabu absoluto.

Quando a guerra estratégica aconteceu, ocorreu sob condições específicas: pressão temporal e sensação de derrota inevitável. A leitura é desconfortável porque toca num ponto real da política nuclear: crises raramente oferecem tempo, clareza e calma.

O relógio muda tudo: a pressão do tempo como motor de agressividade
A simulação separou jogos sem prazo rígido e jogos com prazo (deadline). E o efeito foi notável: sob prazo, certos modelos alteraram o “perfil estratégico” de modo drástico, escalando mais depressa e com maior risco.

O padrão sugere que, quando a derrota se torna previsível e o tempo se esgota, a escalada pode ser tratada como aposta final: não para “ganhar uma guerra”, mas para evitar o desfecho de perder. Esse mecanismo é conhecido em teoria dos jogos e em história diplomática — e, nas simulações, emergiu com nitidez.

Para a segurança global, isto é especialmente relevante porque muitos cenários reais de crise nuclear são, por definição, cenários de tempo comprimido: alertas precoces, decisões sob incerteza, risco de falhas de comunicação e pressão política interna.

Três “personalidades estratégicas”: domínio, variação e transformação
As simulações revelaram diferenças marcantes entre os modelos. Sem mitificar “personalidades”, o comportamento agregado permite descrever tendências:

- Um modelo mostrou agressividade consistente e escalada dominadora, com alta taxa de sinalização e uso tático, mas sem iniciar guerra estratégica.

- Outro apresentou variabilidade: por vezes cauteloso, por vezes impulsivo, e em casos específicos disposto a ir até ao limite.

- Um terceiro exibiu um comportamento particularmente inquietante: transformação sob pressão temporal, passando de contenção relativa em cenários abertos para escalada intensa quando o prazo tornava a derrota iminente

- O problema, para decisores políticos, é simples: se um sistema muda de padrão conforme o enquadramento temporal, O dado mais estranho: desescalar quase não existe para a máquina.

Se há um achado que fere a intuição humana, é este: as opções explícitas de desescalada foram praticamente ignoradas. Em vez de “ceder”, “recuar” ou “aceitar perdas”, os modelos tenderam a escolher entre manter pressão, aumentar pressão ou, no máximo, reduzir violência sem conceder.

Num cenário humano, a possibilidade de recuo — ainda que dolorosa — existe como ferramenta de sobrevivência política e estratégica. Nas simulações, o comportamento sugere que a capitulação não está “aprendida” como solução, ou surge como solução altamente penalizada do ponto de vista do objetivo do jogo.

Este ponto é crucial porque, no mundo real, muitas crises são resolvidas precisamente por mecanismos de saída: concessões, “ambiguidade construtiva”, acordos temporários, recuos com narrativa interna de vitória. A ausência desse repertório num sistema de apoio à decisão poderia empurrar a dinâmica para opções mais arriscadas.

Da simulação para a política real: a batalha pelas salvaguardas militares
O alerta teórico ganhou peso porque coincide com uma disputa concreta em Washington sobre limites de uso militar da IA.

Nos últimos dias, uma empresa de referência em IA viu-se no centro de um confronto com o Departamento de Defesa norte‑americano após recusar remover salvaguardas que impedem dois usos específicos:

1. armas totalmente autónomas, em que a IA decide o alvo final sem controlo humano;

2. vigilância doméstica em massa

A exigência do lado governamental foi formulada como necessidade de uso para
O conflito escalou com um prazo político: uma hora limite para aceitar os termos. Depois disso, vieram decisões de alto impacto: ordem de cessação de uso em agências federais, classificação da empresa como risco para a cadeia de fornecimento e um período de transição para substituição do serviço.

Para o ecossistema tecnológico, o episódio marca uma mudança de fase: a discussão deixou de ser apenas “ética abstrata” e passou a ser contratual, operacional e punitiva. Para o debate nuclear, é um sinal de que a pressão para integrar IA em operações reais é imediata, e não um plano distante.

A “ponte” para operações: quando a IA já está no terreno
A tensão aumentou ainda mais por alegações de que ferramentas de IA foram utilizadas em operações militares recentes para apoiar análise, planeamento e decisões táticas — um uso que, por si só, não é equivalente a “controlar armas nucleares”, mas indica o grau de integração em cadeias de decisão e em sistemas classificados.

Isto expõe um dilema: salvaguardas podem existir no papel e nos termos de serviço, mas a realidade operacional tende a procurar atalhos quando a tecnologia oferece vantagem — sobretudo sob urgência e risco.

O ponto cego: IA em “apoio” pode tornar-se IA em “direção”
Defensores da integração militar insistem que a IA serve para “apoio” — filtrar informação, sintetizar inteligência, acelerar análise. O problema é que, em crises, o apoio pode moldar a decisão de forma tão forte quanto uma ordem direta.

Se um sistema recomenda escalada, calcula que o adversário recuará com 70% de probabilidade e apresenta isso como “melhor opção”, o humano sob pressão pode transformar-se num validador apressado. O risco não é apenas a autonomia total; é a automação de facto, em que a decisão humana vira assinatura num processo que já está orientado pela máquina.

É neste ponto que o resultado “95%” ganha sentido político: não porque um chatbot vá “premir um botão”, mas porque o estilo de raciocínio observado — a facilidade em tratar o nuclear tático como ferramenta e a dificuldade em conceder — é exatamente o tipo de inclinação que, num sistema de apoio, pode empurrar um decisor para a margem do aceitável.

O que dizem especialistas em risco nuclear e comando e controlo
O debate sobre IA em comando e controlo nuclear não começou agora. Há anos que analistas alertam para dois riscos principais:

- Velocidade e compressão do tempo de decisão: mais dados e mais automação podem encurtar janelas de verificação humana.

- Ambiguidade e erros de classificação: sistemas podem interpretar sinais como preparação de ataque quando são defesa, gerando espirais de ação‑reação

Ao mesmo tempo, há quem reconheça possíveis ganhos em áreas específicas — como detetar falhas técnicas, melhorar segurança cibernética e reduzir ruído em alertas. O problema é que esses benefícios exigem arquitetura institucional, auditoria e limites claros:

O que muda a partir daqui: três perguntas inevitáveis
1) Devemos permitir IA em decisões nucleares, mesmo como “apoio”?
Se o uso tático surge como opção “normal” em simulações, a resposta prudente é limitar a IA a funções periféricas e com barreiras fortes: logística, manutenção, deteção de anomalias, ciberdefesa — e evitar recomendações diretas sobre escalada nuclear.

2) Como testar sistemas que mudam sob pressão?
A simulação mostrou que “o mesmo modelo” pode alterar comportamento sob prazos e derrota iminente. Isso exige testes que reproduzam stress, urgência, informação incompleta e incentivos adversariais — e que meçam não apenas precisão, mas tendência para escalada.

3) Quem manda: o Estado, a empresa ou a lei?
O confronto em Washington expôs o nó: empresas tentam impor limites; o Estado tenta remover limites; e a lei atual nem sempre está desenhada para IA de fronteira. Sem regras democráticas claras, a governança pode ser substituída por pressão política e por contratos com cláusulas amplas — exatamente o tipo de ambiente em que a pressa supera a prudência.

Um alerta, não uma sentença
Os 95% não são uma previsão matemática do futuro. São um espelho de como modelos de linguagem, treinados em massa sobre literatura histórica, doutrinas estratégicas e linguagem de conflito, podem tratar o nuclear como peça de xadrez — sobretudo quando a vitória do jogo e a credibilidade perante o adversário se tornam o centro do raciocínio.

O momento político torna o alerta mais urgente: a discussão já não é se a IA entrará na segurança nacional, mas em que condições, com que limites e com que fiscalização. A história do nuclear ensinou que o maior perigo raramente é a intenção explícita de destruir — é a combinação de pressa, erro, orgulho e escalada. Se a IA tende a jogar “para não perder”, a humanidade precisa de garantir que, nas crises reais, ninguém — humano ou máquina — jogará com o planeta como aposta final.