The Prague Post - Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024

EUR -
AED 4.171565
AFN 80.473825
ALL 98.472412
AMD 441.923202
ANG 2.046918
AOA 1040.329678
ARS 1331.917537
AUD 1.757935
AWG 2.047156
AZN 1.988376
BAM 1.960749
BBD 2.293689
BDT 138.01836
BGN 1.957581
BHD 0.428101
BIF 3379.058536
BMD 1.135732
BND 1.474033
BOB 7.849952
BRL 6.400758
BSD 1.135967
BTN 96.006011
BWP 15.467176
BYN 3.717716
BYR 22260.339362
BZD 2.281859
CAD 1.56497
CDF 3262.957115
CHF 0.936541
CLF 0.027925
CLP 1071.607769
CNY 8.258302
CNH 8.198125
COP 4822.645736
CRC 574.454989
CUC 1.135732
CUP 30.096887
CVE 110.544014
CZK 24.905499
DJF 202.29237
DKK 7.462461
DOP 66.719576
DZD 150.470341
EGP 57.666227
ERN 17.035974
ETB 148.950794
FJD 2.555735
FKP 0.855655
GBP 0.852696
GEL 3.117547
GGP 0.855655
GHS 15.960566
GIP 0.855655
GMD 81.198406
GNF 9839.835863
GTQ 8.74916
GYD 238.365836
HKD 8.801971
HNL 29.501722
HRK 7.527288
HTG 148.265529
HUF 404.235291
IDR 18672.790384
ILS 4.075993
IMP 0.855655
INR 95.961253
IQD 1488.16926
IRR 47828.500293
ISK 145.89598
JEP 0.855655
JMD 180.184789
JOD 0.805464
JPY 163.778195
KES 146.793534
KGS 99.319439
KHR 4551.528187
KMF 493.476661
KPW 1022.156952
KRW 1583.857109
KWD 0.348226
KYD 0.946698
KZT 586.876451
LAK 24565.219201
LBP 101785.8048
LKR 340.16859
LRD 227.207475
LSL 20.911866
LTL 3.35352
LVL 0.686993
LYD 6.202656
MAD 10.53358
MDL 19.539662
MGA 5110.792397
MKD 61.480412
MMK 2384.380785
MNT 4058.227677
MOP 9.069712
MRU 45.247604
MUR 51.663984
MVR 17.501399
MWK 1969.806503
MXN 22.303889
MYR 4.839921
MZN 72.687119
NAD 20.911866
NGN 1821.316507
NIO 41.738471
NOK 11.757491
NPR 153.609417
NZD 1.903163
OMR 0.437245
PAB 1.135967
PEN 4.164849
PGK 4.609082
PHP 63.131855
PKR 319.219435
PLN 4.278455
PYG 9088.940595
QAR 4.145463
RON 4.974163
RSD 117.496563
RUB 93.97807
RWF 1603.375173
SAR 4.259087
SBD 9.49619
SCR 16.133916
SDG 682.007594
SEK 10.904562
SGD 1.468666
SHP 0.892507
SLE 25.883482
SLL 23815.705346
SOS 649.250148
SRD 41.848265
STD 23507.351089
SVC 9.940089
SYP 14766.628432
SZL 20.902943
THB 37.483114
TJS 11.75758
TMT 3.975061
TND 3.408162
TOP 2.659995
TRY 43.807734
TTD 7.703512
TWD 34.923757
TZS 3061.457684
UAH 47.430332
UGX 4161.54042
USD 1.135732
UYU 47.67032
UZS 14653.986838
VES 98.511053
VND 29534.700261
VUV 137.509714
WST 3.146972
XAF 657.622638
XAG 0.035278
XAU 0.000348
XCD 3.069372
XDR 0.821148
XOF 653.611743
XPF 119.331742
YER 277.856337
ZAR 20.889557
ZMK 10222.935368
ZMW 31.529859
ZWL 365.705112
Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024
Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024 / foto: Martin BUREAU - AFP/Arquivos

Reconhecimento facial, linha vermelha para uso da IA na segurança de Paris-2024

Para reforçar a segurança dos Jogos Olímpicos de Paris-2024, autoridades utilizarão câmeras de segurança com algoritmos, mas garantem que nenhum de seus programas permitirá o reconhecimento facial, uma prática polêmica já testada na França.

Tamanho do texto:

O sistema com algoritmos utiliza um programa conectado a câmeras que analisa sequências de vídeo para identificar acontecimentos ou comportamentos suspeitos ou de risco, antes de alertar um operador em tempo real.

Já o reconhecimento facial foca nos detalhes, já que permite analisar os traços faciais de uma pessoa filmada ou fotografada e comparar a imagens de uma base de dados, em tempo real ou posterior.

Durante o carnaval de Nice em 2019, um "software" desta última tecnologia, desenvolvido por engenheiros israelenses, permitiu encontrar entre 5.000 pessoas quase 50 voluntários que haviam fornecido suas fotos, algumas bem antigas.

Porém, a cidade da turística Riviera Francesa, com quase 4.500 câmaras de vigilância de alta precisão, quer "ir além" de um mero teste, mas seus desejos chocam com a Cnil, autoridade encarregada de zelar pelas liberdades na era digital.

Os franceses já aceitam "ser vigiados 24 horas por dia por Xi Jinping [presidente chinês] ou por Joe Biden [seu colega americano], segundo a marca de seu celular", defende o prefeito de Nice, Christian Estrosi, ante ao receio da Cnil.

Para ele, a inteligência artificial (IA) poderia ter ajudado a detectar os movimentos do autor do atentado no Passeio dos Ingleses em 2016 (86 mortos). "Apenas as pessoas fichadas como perigosas seriam alvo de uma vigilância permanente", assegura.

A tecnologia de reconhecimento facial ainda não tem uma regulamentação jurídica definida, mas deve respeitar, segundo a Cnil, "o marco de proteção de dados pessoais", previsto por duas normas europeias: o regulamento geral RGPD e a diretriz "Polícia-Justiça" de 2016.

Esta última norma permite seu uso por "autoridades competentes" em caso de "absoluta necessidade". A polícia a utiliza em investigações para consultar a base de antecedentes criminais, que contém milhões de arquivos de autores e vítimas.

O sistema de passagem rápida nas fronteiras externas da União Europeia a utiliza também no controle biométrico de passaportes em locais determinados e sob condições.

- "Oportunidade desperdiçada" -

A futura regulação europeia sobre inteligencia artificial, cuja adoção final é esperada em abril, proíbe "o uso da identificação biométrica à distância em tempo real nos espaços públicos", embora preveja exceções.

O reconhecimento facial pode ser utilizado para "dezesseis crimes", segundo um porta-voz da Comissão Europeia: terrorismo, estupro, tráfico de seres humanos, assassinato, tráfico de drogas, associação criminosa...

Uma "autoridade judicial ou administrativa independente" deve autorizar seu uso em 24 horas e os países interessados em adotar a prática devem aprovar uma lei federal, com base na regulamentação.

A ONG Anistia Internacional lamentou, no entanto, uma "oportunidade desperdiçada". "Era a ocasião para proibir sistemas perigosos e incompatíveis com os direitos humanos, como o reconhecimento facial", lamentou Katia Roux, membro na França.

No caso das câmeras por algoritmos, o Parlamento francês aprovou em abril de 2023 uma lei que regulamenta sua utilização durante os Jogos. Uma comissão de usuários e políticos se encarregará de sua avaliação até 2025.

Os dispositivos poderão ser empregados para identificar oito tipos de situações que impliquem um "risco de ato de terrorismo ou uma ameaça grave à segurança das pessoas": cruzar uma zona proibida, circular no sentido contrário, presença ou uso de armas, incêndio, tumulto, pessoa no chão, fluxo excessivo, pacote abandonado.

A Anistia criticou a experiência durante a Paris-2024, ao considerar que o uso destas tecnologias "não tem volta". Foram testadas em Londres-2012 e agora a polícia britânica as utilizam para identificar "potenciais criminosos antes mesmo que cometam crimes", advertiu.

S.Janousek--TPP