Berliner Boersenzeitung - Real ou fabricado? A IA, mais um ator da guerra no Irã

EUR -
AED 4.2308
AFN 75.461931
ALL 95.701743
AMD 434.289094
ANG 2.062212
AOA 1056.403079
ARS 1597.18451
AUD 1.668628
AWG 2.073925
AZN 1.963008
BAM 1.952758
BBD 2.315114
BDT 141.040283
BGN 1.969159
BHD 0.435651
BIF 3421.500424
BMD 1.15202
BND 1.480462
BOB 7.942627
BRL 5.945121
BSD 1.149419
BTN 107.068206
BWP 15.769502
BYN 3.405953
BYR 22579.598756
BZD 2.311719
CAD 1.606781
CDF 2655.407311
CHF 0.920187
CLF 0.02682
CLP 1058.995158
CNY 7.928953
CNH 7.933071
COP 4226.094473
CRC 534.859814
CUC 1.15202
CUP 30.528539
CVE 110.594367
CZK 24.524559
DJF 204.737509
DKK 7.474082
DOP 70.100891
DZD 153.514723
EGP 62.594955
ERN 17.280305
ETB 179.485717
FJD 2.596428
FKP 0.872786
GBP 0.871389
GEL 3.093221
GGP 0.872786
GHS 12.67803
GIP 0.872786
GMD 85.249915
GNF 10114.739035
GTQ 8.793302
GYD 240.575224
HKD 9.029248
HNL 30.533639
HRK 7.533181
HTG 150.860401
HUF 384.6946
IDR 19578.12495
ILS 3.606256
IMP 0.872786
INR 106.83831
IQD 1505.854131
IRR 1519716.438584
ISK 144.440755
JEP 0.872786
JMD 181.216908
JOD 0.816828
JPY 183.924702
KES 149.53662
KGS 100.744622
KHR 4596.719375
KMF 491.913091
KPW 1036.802092
KRW 1741.002708
KWD 0.356366
KYD 0.957908
KZT 544.681477
LAK 25310.339681
LBP 103108.170116
LKR 362.66133
LRD 210.92142
LSL 19.532595
LTL 3.401617
LVL 0.696846
LYD 7.350613
MAD 10.799077
MDL 20.225019
MGA 4805.472163
MKD 61.628064
MMK 2419.207897
MNT 4116.419504
MOP 9.279644
MRU 45.662874
MUR 54.087791
MVR 17.81067
MWK 1993.077817
MXN 20.611607
MYR 4.643839
MZN 73.672136
NAD 19.532172
NGN 1587.634232
NIO 42.293196
NOK 11.258292
NPR 171.306902
NZD 2.017019
OMR 0.44364
PAB 1.149409
PEN 3.976705
PGK 4.972168
PHP 69.592978
PKR 320.72236
PLN 4.278316
PYG 7435.481305
QAR 4.191071
RON 5.088018
RSD 117.392788
RUB 92.536885
RWF 1678.770184
SAR 4.325039
SBD 9.260829
SCR 16.616785
SDG 692.364618
SEK 10.925189
SGD 1.482309
SHP 0.864314
SLE 28.397729
SLL 24157.303089
SOS 656.873849
SRD 43.029156
STD 23844.495215
STN 24.461468
SVC 10.057332
SYP 127.363484
SZL 19.524669
THB 37.596228
TJS 11.017337
TMT 4.043591
TND 3.388621
TOP 2.773788
TRY 51.288526
TTD 7.797954
TWD 36.858934
TZS 2995.253282
UAH 50.34114
UGX 4312.282184
USD 1.15202
UYU 46.547487
UZS 13965.244481
VES 545.355491
VND 30344.215879
VUV 137.490062
WST 3.186768
XAF 654.931042
XAG 0.015774
XAU 0.000247
XCD 3.113393
XCG 2.071573
XDR 0.815708
XOF 654.942394
XPF 119.331742
YER 274.930073
ZAR 19.553086
ZMK 10369.569656
ZMW 22.212589
ZWL 370.950081
Real ou fabricado? A IA, mais um ator da guerra no Irã
Real ou fabricado? A IA, mais um ator da guerra no Irã / foto: Ronen Zvulun - POOL/AFP/Arquivos

Real ou fabricado? A IA, mais um ator da guerra no Irã

"Netanyahu é real ou foi gerado por IA?", pergunta uma manchete online sobre um vídeo que mostra o primeiro-ministro israelense supostamente com seis dedos.

Tamanho do texto:

O vídeo era autêntico. Mas logo as redes se encheram de mensagens que afirmavam, sem qualquer prova, que Netanyahu havia morrido em um ataque iraniano e que Israel tentava ocultar a realidade usando um sósia criado por inteligência artificial.

"Da última vez que eu verifiquei, em princípio os humanos não têm seis dedos... Exceto para a IA", diz um comentário visto por mais de cinco milhões de usuários no X, a plataforma de Elon Musk. "Netanyahu morreu?".

Especialistas em investigação digital explicaram rapidamente o "dedo a mais": tratava-se de uma sombra fugaz que fazia com que uma parte da palma da mão parecesse um dedo adicional.

Mas a demonstração se perdeu no turbilhão das redes sociais. E não importa que os geradores de imagens com IA, capazes agora de produzir em poucos segundos os "deepfakes" – vídeos ultrarrealistas modificados – tenham feito desaparecer quase por completo aquele antigo defeito do "dedo a mais". Como demonstrar que o real é real quando a fronteira entre realidade e invenção se tornou tão difusa na confusão da guerra com o Irã e até mesmo as imagens autênticas são postas em dúvida?

Alguns dias depois da divulgação do primeiro vídeo, Netanyahu publicou outro, uma espécie de prova de vida filmada em uma cafeteria, no qual mostrou as mãos para calar os rumores.

Mas, em vez de frear as especulações, as imagens alimentaram uma nova onda de teorias infundadas. "Mais IA", reclamou uma publicação que viralizou no Threads, que apontava desta vez para outra suposta prova de manipulação: a xícara de café do líder israelense continuava cheia depois de ele beber e não transbordava apesar de sua movimentação.

Um terceiro vídeo de Netanyahu, ao lado do embaixador americano em Israel, Mike Huckabee, também não pôs fim aos rumores. Alguns detetives online deram zoom nas orelhas do primeiro-ministro, afirmando que sua forma e tamanho não coincidiam com imagens dele divulgadas no passado.

– "Rumores" –

"Desde o início da guerra no Oriente Médio, em 28 de fevereiro, a rede mundial da AFP produziu mais de 500 matérias de verificação de fatos que revelam informações falsas sobre esse conflito, das quais entre 20% e 25% foram criadas com ajuda da IA, um nível jamais alcançado durante uma crise dessa magnitude.

A invasão da Ucrânia pela Rússia ou a guerra entre Israel e Gaza desencadearam ondas de imagens, vídeos e áudios gerados por IA.

O que distingue esta guerra é a magnitude e o realismo dos conteúdos artificiais, produzidos por ferramentas avançadas, de baixo custo, acessíveis e capazes de eliminar grande parte dos antigos indícios de manipulação, explicam pesquisadores.

"As plataformas tecnológicas estão saturadas do que muitos chamam de 'ruído digital'. Acho que todos devemos começar a tratar fotos, vídeos e áudios da mesma forma que tratamos os rumores", diz Thomas Nowotny, diretor de um grupo de pesquisas sobre IA da Universidade de Sussex, no Reino Unido.

Essas imagens geradas por IA alcançaram tal nível de semelhança com a realidade que chegam a ofuscar fotos e vídeos autênticos, gerando uma crise de confiança. Agora, "o problema da desinformação, em geral, não é tanto que as pessoas acreditem nela", explica Constance de Saint Laurent, professora na Universidade de Maynooth, na Irlanda. "O problema é que veem informações reais e já não confiam nelas", acrescentou.

– "Prejudiciais" –

O volume de conteúdos falsos gerados por IA supera em muito a capacidade de verificação dos profissionais de checagem de fatos.

As redações mais sólidas não estão a salvo de serem enganadas.

A revista alemã Der Spiegel anunciou recentemente ter retirado várias imagens relacionadas com o Irã após determinar que provavelmente haviam sido geradas por inteligência artificial.

E mesmo quando demonstrado que esses conteúdos são invenções, eles ressurgem regularmente, um padrão que alguns pesquisadores qualificam de desinformação "zumbi".

Os algoritmos priorizam conteúdos em função das interações (vezes em que são compartilhados, comentados, "curtidos”...), frequentemente impulsionados pelo sensacionalismo, pela indignação e pela desinformação.

As plataformas de redes sociais "agem como editoras, por meio do que decidem mostrar prioritariamente no seu feed de notícias. E, muito frequentemente, isso inclui conteúdos prejudiciais e desinformação", ressalta Constance de Saint Laurent.

Os incentivos financeiros aceleram o fenômeno. A maioria das plataformas permite que criadores enriqueçam em função das interações, incentivando influenciadores a divulgar conteúdos enganosos ou completamente fabricados para obter cliques, visibilidade e dinheiro.

Segundo o Instituto para o Diálogo Estratégico (ISD, na sigla em inglês), com sede em Londres, várias contas no X que publicam conteúdos de IA sobre a guerra entre Irã, Estados Unidos e Israel acumularam mais de 1 bilhão de visualizações desde o início do conflito. Outro exemplo viral: uma conta no X publicou um vídeo gerado por IA que parecia mostrar a torre Burj Khalifa, em Dubai, desabando em uma nuvem de poeira.

"Dez milhões de visualizações e nenhuma nota da comunidade", comentou, 20 horas após a publicação daquele clipe, o analista de guerra da informação Tal Hagin.

Quando uma nota da comunidade — um sistema de verificação participativa, cuja eficácia é frequentemente questionada por pesquisadores — foi acrescentada, o vídeo já havia sido visto mais de 12 milhões de vezes.

Os conteúdos modificados continuaram a proliferar no X mesmo depois de a plataforma ameaçar sancionar criadores que publicassem vídeos de guerra gerados por IA sem indicá-lo.

– "Legoficação" –

Os memes gerados por IA, que banalizam os conflitos, ao mesmo tempo em que difundem desinformação, ocupam cada vez mais espaço, um fenômeno batizado pelo ISD como "Legoficação" da propaganda de guerra.

Um filme iraniano falso, gerado por IA com personagens de Lego, viralizou já na primeira semana do conflito, acusando Donald Trump de ter atacado Teerã para desviar a atenção de seu suposto papel no escândalo do criminoso sexual Jeffrey Epstein.

Vídeos ultrarrealistas foram utilizados para representar vitórias militares iranianas fictícias, líderes mundiais em situações absurdas ou o estratégico Estreito de Ormuz reimaginado como uma barreira de pedágio caricatural.

O presidente dos Estados Unidos advertiu que a IA era uma "arma de desinformação que o Irã usa muito bem neste conflito".

"Os prédios e navios que aparecem em chamas não estão, é FAKE NEWS gerada por IA", escreveu em sua plataforma, Truth Social.

No entanto, ele próprio compartilhou imagens e vídeos gerados por IA para se representar como rei ou como o Super-Homem, retratar seus opositores como criminosos ou usar memes de IA para alimentar teorias da conspiração e narrativas falaciosas.

"Consideramos que as plataformas tecnológicas atualmente não estão fazendo o suficiente para ajudar os usuários a determinar se um conteúdo é gerado por IA ou autêntico", avaliou, em março, o Conselho de Supervisão da Meta, órgão criado pelo Facebook para examinar decisões de moderação de conteúdo.

"Os conteúdos falsos podem ser prejudiciais, ao incitar mais violência e alimentar ainda mais o conflito", acrescentou.

A AFP trabalha em 26 idiomas com o programa de checagem de fatos do Facebook, especialmente na Ásia, na América Latina e na União Europeia.

A Meta encerrou seu programa de verificação por terceiros nos Estados Unidos no ano passado porque, segundo seu diretor-geral, Mark Zuckerberg, havia gerado "censura demais", uma afirmação refutada pelos defensores do programa. Como alternativa, Zuckerberg informou que as plataformas da Meta, Facebook e Instagram, usariam o modelo das notas da comunidade, uma decisão que poderia enfraquecer ainda mais as salvaguardas contra a desinformação, segundo seus críticos.

– "Bem real" –

As ferramentas de detecção de IA deveriam dissipar o ruído da guerra da informação, mas, às vezes, só o tornam mais confuso. No caso de Netanyahu, partidários das teorias da conspiração esgrimiram uma ferramenta de detecção de IA que classificou erroneamente seu vídeo gravado em um café como "gerado por IA em 96,9%".

Outras ferramentas chegaram à conclusão oposta. O problema não se limita aos vídeos. As redes sociais estão repletas de imagens de satélite fabricadas ou mapas de calor manipulados, usados para semear dúvidas sobre as provas do conflito, segundo os pesquisadores.

Os relatos falsos já não se limitam a fabricar conteúdo, mas também rotulam como invenções reportagens completamente reais, destaca a NewsGuard: "Quando tudo pode ser falso, fica fácil acreditar que qualquer coisa é", analisa Sofia Rubinson, integrante desse observatório da desinformação.

Usuários de redes sociais acusaram falsamente grandes meios de comunicação, como o New York Times, de terem publicado imagens do conflito geradas por IA, entre elas uma que mostrava uma enorme multidão em Teerã comemorando a nomeação do novo guia supremo, Mojtaba Khamenei.

Quando informações verídicas, porém comprometedoras, são descartadas como geradas por IA, os pesquisadores chamam isso de "dividendo do mentiroso". Nessas circunstâncias, "fica mais fácil negar atrocidades", advertiu um relatório da Tech Policy Press.

"É isso que os mal-intencionados buscam: que as pessoas pensem que tudo pode ter sido manipulado, para que não possam confiar em nada", insiste Hannah Covington, diretora sênior de conteúdos educacionais no News Literacy Project.

Imagens falsas de fatos reais contaminam ainda mais o panorama informativo. Após um ataque mortal contra uma escola na cidade de Minab, em 28 de fevereiro, uma conta oficial iraniana no X publicou uma foto mostrando a mochila de uma criança manchada de sangue e poeira. A AFP determinou que era muito provável que a imagem tivesse sido gerada por IA.

Mas poucos internautas pareceram incomodados com o uso de uma imagem manipulada para ilustrar a morte de estudantes reais, sinal de uma resignação crescente diante de uma era em que a pergunta "É real?" se tornou cada vez mais difícil de responder.

"Provavelmente modificada por IA, mas o significado é real", escreveu um usuário do Reddit.

(A.Lehmann--BBZ)