Berliner Boersenzeitung - Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024

EUR -
AED 3.984913
AFN 77.841029
ALL 100.653746
AMD 420.98107
ANG 1.95392
AOA 929.241482
ARS 970.579675
AUD 1.630739
AWG 1.952871
AZN 1.853291
BAM 1.954319
BBD 2.189042
BDT 127.283572
BGN 1.95695
BHD 0.408091
BIF 3113.541223
BMD 1.084928
BND 1.46559
BOB 7.507313
BRL 5.691857
BSD 1.084179
BTN 90.496441
BWP 14.861741
BYN 3.548012
BYR 21264.590232
BZD 2.185344
CAD 1.4788
CDF 3066.00687
CHF 0.979544
CLF 0.036092
CLP 995.505818
CNY 7.857019
CNH 7.879605
COP 4185.029478
CRC 564.872061
CUC 1.084928
CUP 28.750594
CVE 110.181528
CZK 24.684828
DJF 193.03376
DKK 7.462147
DOP 64.1514
DZD 145.715608
EGP 51.219046
ERN 16.273921
ETB 62.306697
FJD 2.417437
FKP 0.86371
GBP 0.851675
GEL 3.026542
GGP 0.86371
GHS 15.990886
GIP 0.86371
GMD 73.531072
GNF 9325.934797
GTQ 8.422619
GYD 226.948067
HKD 8.485385
HNL 26.787706
HRK 7.57275
HTG 143.97093
HUF 389.749875
IDR 17635.614321
ILS 4.035287
IMP 0.86371
INR 90.549019
IQD 1420.224057
IRR 45811.088048
ISK 149.123049
JEP 0.86371
JMD 168.722178
JOD 0.769109
JPY 170.561302
KES 144.190763
KGS 95.150272
KHR 4437.638105
KMF 492.828788
KPW 976.434937
KRW 1500.553191
KWD 0.332888
KYD 0.903516
KZT 484.652834
LAK 23293.353269
LBP 97085.948989
LKR 326.182888
LRD 210.367204
LSL 20.418083
LTL 3.203511
LVL 0.656262
LYD 5.260015
MAD 10.772039
MDL 19.102528
MGA 4816.351197
MKD 61.508402
MMK 2276.675221
MNT 3743.001606
MOP 8.731385
MRU 42.909546
MUR 49.872217
MVR 16.721105
MWK 1878.67674
MXN 18.427124
MYR 5.107303
MZN 68.893606
NAD 19.94089
NGN 1613.288609
NIO 39.909765
NOK 11.401206
NPR 144.794306
NZD 1.766507
OMR 0.416734
PAB 1.084179
PEN 4.066719
PGK 4.160848
PHP 63.486198
PKR 301.719921
PLN 4.276312
PYG 8172.80839
QAR 3.950761
RON 4.973663
RSD 117.019448
RUB 98.115435
RWF 1407.73352
SAR 4.06964
SBD 9.210579
SCR 14.945677
SDG 652.041936
SEK 11.422253
SGD 1.465526
SHP 1.370752
SLE 24.78768
SLL 22750.400248
SOS 619.494414
SRD 34.650972
STD 22455.820651
SVC 9.486813
SYP 2725.914174
SZL 20.329599
THB 39.935852
TJS 11.627591
TMT 3.797248
TND 3.37277
TOP 2.562003
TRY 35.009132
TTD 7.357426
TWD 35.237919
TZS 2824.260378
UAH 43.96869
UGX 4128.872022
USD 1.084928
UYU 42.018168
UZS 13681.634977
VEF 3930208.940769
VES 39.590711
VND 27611.41946
VUV 128.80482
WST 3.041154
XAF 655.460432
XAG 0.035685
XAU 0.000466
XCD 2.932073
XDR 0.819279
XOF 655.460432
XPF 119.331742
YER 271.668074
ZAR 20.436032
ZMK 9765.658112
ZMW 27.94383
ZWL 349.346397
Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024
Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024 / foto: Martin BUREAU - AFP/Arquivos

Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024

Para reforçar a segurança dos Jogos Olímpicos de Paris-2024, autoridades utilizarão câmeras de segurança com algoritmos, mas garantem que nenhum de seus programas permitirá o reconhecimento facial, uma prática polêmica já testada na França.

Tamanho do texto:

O sistema com algoritmos utiliza um programa conectado a câmeras que analisa sequências de vídeo para identificar acontecimentos ou comportamentos suspeitos ou de risco, antes de alertar um operador em tempo real.

Já o reconhecimento facial foca nos detalhes, já que permite analisar os traços faciais de uma pessoa filmada ou fotografada e comparar a imagens de uma base de dados, em tempo real ou posterior.

Durante o carnaval de Nice em 2019, um "software" desta última tecnologia, desenvolvido por engenheiros israelenses, permitiu encontrar entre 5.000 pessoas quase 50 voluntários que haviam fornecido suas fotos, algumas bem antigas.

Porém, a cidade da turística Riviera Francesa, com quase 4.500 câmaras de vigilância de alta precisão, quer "ir além" de um mero teste, mas seus desejos chocam com a Cnil, autoridade encarregada de zelar pelas liberdades na era digital.

Os franceses já aceitam "ser vigiados 24 horas por dia por Xi Jinping [presidente chinês] ou por Joe Biden [seu colega americano], segundo a marca de seu celular", defende o prefeito de Nice, Christian Estrosi, ante ao receio da Cnil.

Para ele, a inteligência artificial (IA) poderia ter ajudado a detectar os movimentos do autor do atentado no Passeio dos Ingleses em 2016 (86 mortos). "Apenas as pessoas fichadas como perigosas seriam alvo de uma vigilância permanente", assegura.

A tecnologia de reconhecimento facial ainda não tem uma regulamentação jurídica definida, mas deve respeitar, segundo a Cnil, "o marco de proteção de dados pessoais", previsto por duas normas europeias: o regulamento geral RGPD e a diretriz "Polícia-Justiça" de 2016.

Esta última norma permite seu uso por "autoridades competentes" em caso de "absoluta necessidade". A polícia a utiliza em investigações para consultar a base de antecedentes criminais, que contém milhões de arquivos de autores e vítimas.

O sistema de passagem rápida nas fronteiras externas da União Europeia a utiliza também no controle biométrico de passaportes em locais determinados e sob condições.

- "Oportunidade desperdiçada" -

A futura regulação europeia sobre inteligencia artificial, cuja adoção final é esperada em abril, proíbe "o uso da identificação biométrica à distância em tempo real nos espaços públicos", embora preveja exceções.

O reconhecimento facial pode ser utilizado para "dezesseis crimes", segundo um porta-voz da Comissão Europeia: terrorismo, estupro, tráfico de seres humanos, assassinato, tráfico de drogas, associação criminosa...

Uma "autoridade judicial ou administrativa independente" deve autorizar seu uso em 24 horas e os países interessados em adotar a prática devem aprovar uma lei federal, com base na regulamentação.

A ONG Anistia Internacional lamentou, no entanto, uma "oportunidade desperdiçada". "Era a ocasião para proibir sistemas perigosos e incompatíveis com os direitos humanos, como o reconhecimento facial", lamentou Katia Roux, membro na França.

No caso das câmeras por algoritmos, o Parlamento francês aprovou em abril de 2023 uma lei que regulamenta sua utilização durante os Jogos. Uma comissão de usuários e políticos se encarregará de sua avaliação até 2025.

Os dispositivos poderão ser empregados para identificar oito tipos de situações que impliquem um "risco de ato de terrorismo ou uma ameaça grave à segurança das pessoas": cruzar uma zona proibida, circular no sentido contrário, presença ou uso de armas, incêndio, tumulto, pessoa no chão, fluxo excessivo, pacote abandonado.

A Anistia criticou a experiência durante a Paris-2024, ao considerar que o uso destas tecnologias "não tem volta". Foram testadas em Londres-2012 e agora a polícia britânica as utilizam para identificar "potenciais criminosos antes mesmo que cometam crimes", advertiu.

(Y.Yildiz--BBZ)