Berliner Boersenzeitung - A Inteligência Artificial pode acabar com a humanidade?

EUR -
AED 4.277193
AFN 76.278264
ALL 96.384702
AMD 444.254789
ANG 2.084488
AOA 1067.831058
ARS 1669.875407
AUD 1.753964
AWG 2.096069
AZN 1.984244
BAM 1.954822
BBD 2.344528
BDT 142.396172
BGN 1.956308
BHD 0.43899
BIF 3455.020152
BMD 1.164483
BND 1.507939
BOB 8.043943
BRL 6.350744
BSD 1.164018
BTN 104.659215
BWP 15.4652
BYN 3.346626
BYR 22823.860795
BZD 2.341119
CAD 1.610404
CDF 2599.125794
CHF 0.936598
CLF 0.027365
CLP 1073.513766
CNY 8.233014
CNH 8.233056
COP 4469.284578
CRC 568.61566
CUC 1.164483
CUP 30.858791
CVE 110.746839
CZK 24.199353
DJF 206.952322
DKK 7.46926
DOP 74.818471
DZD 151.338451
EGP 55.403297
ERN 17.46724
ETB 180.669946
FJD 2.633482
FKP 0.872036
GBP 0.873351
GEL 3.138328
GGP 0.872036
GHS 13.333781
GIP 0.872036
GMD 85.007651
GNF 10116.447882
GTQ 8.916541
GYD 243.537172
HKD 9.064392
HNL 30.603057
HRK 7.536071
HTG 152.3838
HUF 382.208885
IDR 19434.051674
ILS 3.767929
IMP 0.872036
INR 104.754244
IQD 1525.472329
IRR 49039.28188
ISK 148.99601
JEP 0.872036
JMD 186.316831
JOD 0.825664
JPY 180.860511
KES 150.572039
KGS 101.834459
KHR 4663.753596
KMF 491.412105
KPW 1048.026495
KRW 1715.92392
KWD 0.357438
KYD 0.970111
KZT 588.683098
LAK 25257.630031
LBP 104279.425622
LKR 359.050455
LRD 206.001381
LSL 19.738426
LTL 3.438415
LVL 0.704384
LYD 6.346874
MAD 10.755749
MDL 19.806011
MGA 5225.03425
MKD 61.609192
MMK 2445.343302
MNT 4129.840334
MOP 9.334532
MRU 46.416721
MUR 53.687009
MVR 17.937387
MWK 2022.70684
MXN 21.166896
MYR 4.787234
MZN 74.422528
NAD 19.738421
NGN 1688.744886
NIO 42.823896
NOK 11.76959
NPR 167.455263
NZD 2.016541
OMR 0.44774
PAB 1.164113
PEN 4.096072
PGK 4.876276
PHP 68.663144
PKR 326.49188
PLN 4.230857
PYG 8005.996555
QAR 4.23994
RON 5.091938
RSD 117.397367
RUB 89.084898
RWF 1689.664388
SAR 4.370504
SBD 9.584382
SCR 16.274091
SDG 700.440621
SEK 10.950883
SGD 1.508844
SHP 0.873664
SLE 27.60251
SLL 24418.617678
SOS 665.506124
SRD 44.982846
STD 24102.440677
STN 24.91993
SVC 10.184289
SYP 12877.133952
SZL 19.738411
THB 37.112493
TJS 10.680213
TMT 4.087334
TND 3.43668
TOP 2.803795
TRY 49.521868
TTD 7.891054
TWD 36.42677
TZS 2835.515749
UAH 48.861004
UGX 4117.9408
USD 1.164483
UYU 45.527234
UZS 13979.615126
VES 296.421323
VND 30695.763805
VUV 142.148529
WST 3.249082
XAF 655.626335
XAG 0.019932
XAU 0.000277
XCD 3.147073
XCG 2.097942
XDR 0.815161
XOF 655.025699
XPF 119.331742
YER 277.787769
ZAR 19.724129
ZMK 10481.745796
ZMW 26.912427
ZWL 374.962952
A Inteligência Artificial pode acabar com a humanidade?
A Inteligência Artificial pode acabar com a humanidade? / foto: BEN STANSALL - AFP

A Inteligência Artificial pode acabar com a humanidade?

Os alarmes surgiram por todas as partes: a Inteligência Artificial (IA) representa um risco existencial para a humanidade e deve ser controlada antes que seja tarde demais.

Tamanho do texto:

Mas, quais são os cenários apocalípticos e como se supõe que as máquinas acabarão com a humanidade?

- Um "bom" problema -

A maioria dos cenários parte do mesmo ponto: um dia as máquinas ultrapassarão as capacidades humanas, ficarão fora de controle e se recusarão a ser desligadas.

"Uma vez que tenhamos máquinas que tenham como objetivo a autopreservação, teremos um bom problema", disse o especialista acadêmico em IA, Yoshua Bengio, durante uma conferência neste mês.

Mas como essas máquinas ainda não existem, imaginar como elas poderiam condenar a humanidade costuma ser tarefa da filosofia e da ficção científica.

O filósofo sueco Nick Bostrom mencionou uma "explosão de inteligência", que ocorrerá quando máquinas superinteligentes começarem a projetar outras máquinas.

As ideias de Bostrom foram descartadas por muitos como ficção científica, sobretudo porque ele argumentou uma vez que a humanidade é uma simulação de computador e apoiou teorias próximas à eugenia. Ele também se desculpou recentemente depois que uma mensagem racista que enviou na década de 1990 foi exposta.

No entanto, seus pensamentos sobre IA foram altamente influentes e inspiraram tanto Elon Musk quanto o professor Stephen Hawking.

- Exterminador do Futuro -

Se as máquinas superinteligentes vão destruir a humanidade, certamente precisarão de uma forma física.

O ciborgue de olhos vermelhos interpretado por Arnold Schwarzenegger em "Exterminador do Futuro" provou ser uma imagem impactante.

Mas os especialistas rejeitaram a ideia. "É pouco provável que esse conceito de ficção científica se torne realidade nas próximas décadas, se é que algum dia se tornarão", escreveu o Stop Killer Robots, um grupo ativista contra robôs de guerra, em um relatório de 2021.

No entanto, o grupo alertou que dar às máquinas o poder de tomar decisões sobre a vida e a morte é um risco existencial.

A especialista em robótica Kerstin Dautenhahn, da Universidade de Waterloo, no Canadá, minimizou esses temores.

É pouco provável, disse ela à AFP, que a IA forneça às máquinas maiores habilidades de raciocínio ou introduza nelas o "desejo" de matar todos os humanos.

"Os robôs não são ruins", afirmou, embora admita que os programadores podem obrigá-los a fazer coisas ruins.

- Substâncias químicas mais letais -

Um cenário menos fantasioso é o de "vilões" que usam IA para criar novos vírus e propagá-los.

Modelos de linguagem poderosos como o GPT-3, usado para criar o ChatGPT, são extremamente bons em inventar novos agentes químicos horríveis.

Um grupo de cientistas que usava IA para ajudar a descobrir novos medicamentos realizou um experimento no qual ajustou sua IA para que inventasse moléculas nocivas.

Eles conseguiram gerar 40.000 agentes potencialmente venenosos em menos de seis horas, de acordo com a revista Nature Machine Intelligence.

A especialista em Inteligência Artificial, Joanna Bryson, da Hertie School em Berlim, explicou que é perfeitamente possível que alguém descubra uma maneira de espalhar um veneno, como o antraz, de forma mais rápida.

"Mas não é uma ameaça existencial. É apenas uma arma horrível, assustadora", afirmou.

- Fase passageira -

As regras de Hollywood ditam que os desastres de época devem ser repentinos, enormes e dramáticos, mas e se o fim da humanidade fosse lento, silencioso e não definitivo?

"A nossa espécie pode chegar ao fim sem ter um sucessor", afirmou o filósofo Huw Price em um vídeo promocional do Centro de Estudos de Risco Existencial da Universidade de Cambridge.

Mas, em sua opinião, existem "possibilidades menos sombrias" nas quais os humanos aprimorados com tecnologia avançada poderiam sobreviver.

Uma imagem do apocalipse é muitas vezes enquadrada em termos evolutivos.

O conhecido físico teórico Stephen Hawking argumentou em 2014 que, em última instância, a nossa espécie não será mais capaz de competir com as máquinas de Inteligência Artificial. Ele disse à BBC que isso poderia "significar o fim da raça humana".

Geoffrey Hinton, que passou sua carreira construindo máquinas que se assemelham ao cérebro humano, fala em termos semelhantes de "superinteligências" que simplesmente vão superar os humanos.

Ele disse recentemente à emissora americana PBS que é possível que "a humanidade seja apenas uma fase passageira na evolução da inteligência".

(H.Schneide--BBZ)