Berliner Boersenzeitung - A Inteligência Artificial pode acabar com a humanidade?

EUR -
AED 4.198746
AFN 72.027437
ALL 95.86206
AMD 431.78058
ANG 2.046593
AOA 1048.401651
ARS 1598.59809
AUD 1.629093
AWG 2.057931
AZN 1.946836
BAM 1.95299
BBD 2.306581
BDT 140.527788
BGN 1.954244
BHD 0.431609
BIF 3399.807863
BMD 1.143295
BND 1.465491
BOB 7.913613
BRL 6.101876
BSD 1.145252
BTN 105.710351
BWP 15.605613
BYN 3.388624
BYR 22408.579285
BZD 2.303186
CAD 1.56796
CDF 2580.416172
CHF 0.903826
CLF 0.026658
CLP 1052.620475
CNY 7.88485
CNH 7.890221
COP 4222.828168
CRC 538.827014
CUC 1.143295
CUP 30.297314
CVE 110.107044
CZK 24.460822
DJF 203.936547
DKK 7.471981
DOP 70.359065
DZD 151.640297
EGP 60.04596
ERN 17.149423
ETB 178.761853
FJD 2.540687
FKP 0.859503
GBP 0.862776
GEL 3.121081
GGP 0.859503
GHS 12.437104
GIP 0.859503
GMD 84.033056
GNF 10040.342872
GTQ 8.782401
GYD 239.595236
HKD 8.950958
HNL 30.314512
HRK 7.532942
HTG 150.159332
HUF 392.479443
IDR 19439.442529
ILS 3.586748
IMP 0.859503
INR 105.697035
IQD 1500.247787
IRR 1511121.400458
ISK 144.203925
JEP 0.859503
JMD 179.692219
JOD 0.810553
JPY 182.180041
KES 147.824753
KGS 99.98079
KHR 4592.371745
KMF 492.759942
KPW 1028.965312
KRW 1711.272575
KWD 0.351266
KYD 0.954331
KZT 560.655699
LAK 24539.688735
LBP 102552.832105
LKR 356.415579
LRD 209.569358
LSL 19.234523
LTL 3.375853
LVL 0.691568
LYD 7.307485
MAD 10.786179
MDL 19.978252
MGA 4755.178355
MKD 61.63634
MMK 2400.245131
MNT 4080.393301
MOP 9.232056
MRU 45.820067
MUR 53.436996
MVR 17.664024
MWK 1985.751297
MXN 20.413988
MYR 4.497148
MZN 73.068037
NAD 19.234607
NGN 1586.767474
NIO 42.139548
NOK 11.144552
NPR 169.136362
NZD 1.968262
OMR 0.439598
PAB 1.145152
PEN 3.949317
PGK 5.007794
PHP 68.540962
PKR 319.76907
PLN 4.270784
PYG 7388.368543
QAR 4.163028
RON 5.095547
RSD 117.422553
RUB 92.41403
RWF 1671.20254
SAR 4.29147
SBD 9.205487
SCR 17.02737
SDG 687.120342
SEK 10.786004
SGD 1.465069
SHP 0.857767
SLE 28.067799
SLL 23974.333974
SOS 653.362704
SRD 42.92844
STD 23663.895329
STN 24.464797
SVC 10.020625
SYP 126.362642
SZL 19.228331
THB 37.133099
TJS 10.976853
TMT 4.001532
TND 3.386841
TOP 2.752779
TRY 50.513259
TTD 7.766858
TWD 36.691537
TZS 2978.283153
UAH 50.502451
UGX 4305.804184
USD 1.143295
UYU 46.004004
UZS 13828.041733
VES 506.141923
VND 30040.072485
VUV 135.198356
WST 3.127157
XAF 655.017331
XAG 0.014233
XAU 0.000228
XCD 3.089812
XCG 2.063939
XDR 0.814631
XOF 655.01447
XPF 119.331742
YER 272.732354
ZAR 19.25994
ZMK 10291.026055
ZMW 22.290925
ZWL 368.140479
A Inteligência Artificial pode acabar com a humanidade?
A Inteligência Artificial pode acabar com a humanidade? / foto: BEN STANSALL - AFP

A Inteligência Artificial pode acabar com a humanidade?

Os alarmes surgiram por todas as partes: a Inteligência Artificial (IA) representa um risco existencial para a humanidade e deve ser controlada antes que seja tarde demais.

Tamanho do texto:

Mas, quais são os cenários apocalípticos e como se supõe que as máquinas acabarão com a humanidade?

- Um "bom" problema -

A maioria dos cenários parte do mesmo ponto: um dia as máquinas ultrapassarão as capacidades humanas, ficarão fora de controle e se recusarão a ser desligadas.

"Uma vez que tenhamos máquinas que tenham como objetivo a autopreservação, teremos um bom problema", disse o especialista acadêmico em IA, Yoshua Bengio, durante uma conferência neste mês.

Mas como essas máquinas ainda não existem, imaginar como elas poderiam condenar a humanidade costuma ser tarefa da filosofia e da ficção científica.

O filósofo sueco Nick Bostrom mencionou uma "explosão de inteligência", que ocorrerá quando máquinas superinteligentes começarem a projetar outras máquinas.

As ideias de Bostrom foram descartadas por muitos como ficção científica, sobretudo porque ele argumentou uma vez que a humanidade é uma simulação de computador e apoiou teorias próximas à eugenia. Ele também se desculpou recentemente depois que uma mensagem racista que enviou na década de 1990 foi exposta.

No entanto, seus pensamentos sobre IA foram altamente influentes e inspiraram tanto Elon Musk quanto o professor Stephen Hawking.

- Exterminador do Futuro -

Se as máquinas superinteligentes vão destruir a humanidade, certamente precisarão de uma forma física.

O ciborgue de olhos vermelhos interpretado por Arnold Schwarzenegger em "Exterminador do Futuro" provou ser uma imagem impactante.

Mas os especialistas rejeitaram a ideia. "É pouco provável que esse conceito de ficção científica se torne realidade nas próximas décadas, se é que algum dia se tornarão", escreveu o Stop Killer Robots, um grupo ativista contra robôs de guerra, em um relatório de 2021.

No entanto, o grupo alertou que dar às máquinas o poder de tomar decisões sobre a vida e a morte é um risco existencial.

A especialista em robótica Kerstin Dautenhahn, da Universidade de Waterloo, no Canadá, minimizou esses temores.

É pouco provável, disse ela à AFP, que a IA forneça às máquinas maiores habilidades de raciocínio ou introduza nelas o "desejo" de matar todos os humanos.

"Os robôs não são ruins", afirmou, embora admita que os programadores podem obrigá-los a fazer coisas ruins.

- Substâncias químicas mais letais -

Um cenário menos fantasioso é o de "vilões" que usam IA para criar novos vírus e propagá-los.

Modelos de linguagem poderosos como o GPT-3, usado para criar o ChatGPT, são extremamente bons em inventar novos agentes químicos horríveis.

Um grupo de cientistas que usava IA para ajudar a descobrir novos medicamentos realizou um experimento no qual ajustou sua IA para que inventasse moléculas nocivas.

Eles conseguiram gerar 40.000 agentes potencialmente venenosos em menos de seis horas, de acordo com a revista Nature Machine Intelligence.

A especialista em Inteligência Artificial, Joanna Bryson, da Hertie School em Berlim, explicou que é perfeitamente possível que alguém descubra uma maneira de espalhar um veneno, como o antraz, de forma mais rápida.

"Mas não é uma ameaça existencial. É apenas uma arma horrível, assustadora", afirmou.

- Fase passageira -

As regras de Hollywood ditam que os desastres de época devem ser repentinos, enormes e dramáticos, mas e se o fim da humanidade fosse lento, silencioso e não definitivo?

"A nossa espécie pode chegar ao fim sem ter um sucessor", afirmou o filósofo Huw Price em um vídeo promocional do Centro de Estudos de Risco Existencial da Universidade de Cambridge.

Mas, em sua opinião, existem "possibilidades menos sombrias" nas quais os humanos aprimorados com tecnologia avançada poderiam sobreviver.

Uma imagem do apocalipse é muitas vezes enquadrada em termos evolutivos.

O conhecido físico teórico Stephen Hawking argumentou em 2014 que, em última instância, a nossa espécie não será mais capaz de competir com as máquinas de Inteligência Artificial. Ele disse à BBC que isso poderia "significar o fim da raça humana".

Geoffrey Hinton, que passou sua carreira construindo máquinas que se assemelham ao cérebro humano, fala em termos semelhantes de "superinteligências" que simplesmente vão superar os humanos.

Ele disse recentemente à emissora americana PBS que é possível que "a humanidade seja apenas uma fase passageira na evolução da inteligência".

(H.Schneide--BBZ)