...
quarta-feira ,9 outubro 2024
Home / Direitos Humanos / Uso do reconhecimento facial preocupa entidades

Uso do reconhecimento facial preocupa entidades

Repro­dução: © Fer­nan­do Frazão/Agência Brasil

Racismo e privação de liberdade são principais críticas à tecnologia


Pub­li­ca­do em 28/01/2024 — 09:34 Por Rafael Car­doso — Repórter da Agên­cia Brasil — Rio de Janeiro

ouvir:

Enquan­to espera pelo trem na estação, cam­in­ha pela rua ou relaxa em uma pra­ia, você pode estar sendo vigia­do por câmeras de segu­rança, que envi­am ima­gens dire­ta­mente para um cen­tro de con­t­role poli­cial. Lá, um pro­gra­ma de com­puta­dor aces­sa o ban­co de dados com ros­tos de sus­peitos de crimes e com­para com as ima­gens das câmeras. O que parece roteiro de ficção cien­tí­fi­ca, é real­i­dade há um tem­po em difer­entes partes do país, onde sis­temas de recon­hec­i­men­to facial vêm sendo cada vez mais usa­dos na segu­rança públi­ca.

O caso mais recente foi a adesão de con­ces­sionárias do trans­porte públi­co no Rio de Janeiro à tec­nolo­gia con­tro­la­da pela Polí­cia Mil­i­tar. Mais de 1.000 câmeras posi­cionadas em estações e vias estão ago­ra disponíveis para o tra­bal­ho da cor­po­ração.

Enquan­to autori­dades defen­d­em a medi­da como efi­caz para o com­bate à crim­i­nal­i­dade, espe­cial­is­tas em dire­itos humanos e segu­rança apon­tam os riscos de ampli­ação do racis­mo e da pri­vação de liber­dade.

Hor­rara Mor­eira é advo­ga­da e coor­de­nado­ra da cam­pan­ha Tire Meu Ros­to da Sua Mira, que defende o “bani­men­to total do uso das tec­nolo­gias dig­i­tais de recon­hec­i­men­to facial na segu­rança públi­ca no Brasil”. Ela diz que o primeiro prob­le­ma a ser con­sid­er­a­do é a ocor­rên­cia de prisões equiv­o­cadas.

Horrara Moreira, advogada e coordenadora da Campanha Tire Meu Rosto da Sua Mira. Foto: Arquivo Pessoal
Repro­dução: Hor­rara Mor­eira, advo­ga­da e coor­de­nado­ra da cam­pan­ha Tire Meu Ros­to da Sua Mira — Foto: Arqui­vo Pes­soal

“Há o prob­le­ma da iden­ti­fi­cação, quan­do acon­tece algum erro nas infor­mações bio­métri­c­as do ros­to e na com­para­ção delas com o ban­co de dados. E exis­tem os erros decor­rentes dos trâmites do próprio sis­tema de justiça, como man­da­dos de prisão que estão ven­ci­dos ou que já foram cumpri­dos”, aler­ta Hor­rara.

E se fos­se pos­sív­el mel­ho­rar as tec­nolo­gias disponíveis, a pon­to de prati­ca­mente zer­ar o número de erros? Mes­mo assim, Hor­rara afir­ma que não impediria um out­ro prob­le­ma grave, a car­ac­terís­ti­ca iner­ente­mente racista do sis­tema.

“Muitas tec­nolo­gias de recon­hec­i­men­to facial usam a inteligên­cia arti­fi­cial como regra de proces­sa­men­to matemáti­co. Ela pode ser de deep learn­ing ou de machine learn­ing, em que você fornece pre­vi­a­mente um ban­co de dados, para que ela apren­da a iden­ti­ficar os ros­tos de pes­soas no ger­al. E você tam­bém pre­cisa definir critérios de quem é homem, mul­her, bran­co, negro, e ensi­nar a máquina a iden­ti­ficar ess­es padrões. Qual­quer enviesa­men­to nesse treina­men­to da máquina vai influ­en­ciar na taxa de pre­cisão. E o treina­men­to não é trans­par­ente. Se eu dou mais infor­mações para a máquina sobre pes­soas negras, ela pode indicar que pes­soas negras come­tem mais crimes do que pes­soas bran­cas”, avalia a advo­ga­da.

Thali­ta Lima coor­de­na o Panóp­ti­co, pro­je­to sobre recon­hec­i­men­to facial do Cen­tro de Estu­do de Segu­rança e Cidada­nia (CESeC). Ela defende que a tec­nolo­gia não pro­duz impacto sig­ni­fica­ti­vo na redução da crim­i­nal­i­dade e cita os exem­p­los de Sal­vador e do Rio de Janeiro para cor­rob­o­rar o argu­men­to.

Thalita Lima, coordenadora do Panóptico, projeto sobre reconhecimento facial do CESeC. Foto: Arquivo Pessoal
Repro­dução: Thali­ta Lima, coor­de­nado­ra do Panóp­ti­co, pro­je­to sobre recon­hec­i­men­to facial do CESeC — Foto: Arqui­vo Pes­soal

“O esta­do que mais uti­li­zou recon­hec­i­men­to facial no Brasil foi a Bahia, onde mais de 60 municí­pios já o ado­taram como medi­da de segu­rança públi­ca. Sal­vador é per­me­a­da por câmeras que usam essa tec­nolo­gia. E um estu­do do Panóp­ti­co mostra que entre 2019 e 2022, os índices crim­i­nais de roubo a transe­untes e de aten­ta­dos con­tra a vida não tiver­am mudanças sig­ni­fica­ti­vas”, diz Thali­ta.

“Assim como no estu­do sobre o Rio de Janeiro, de um pro­je­to pilo­to que acon­te­ceu em 2019 em Copaca­bana e no Mara­canã, quan­do foi ver­i­fi­ca­do que a crim­i­nal­i­dade aumen­tou. Segu­rança públi­ca envolve medi­das que são muito mais estru­tu­rais do que sim­ples­mente ado­tar câmeras de recon­hec­i­men­to facial”, acres­cen­ta Thali­ta.

A pesquisado­ra enfa­ti­za que tam­bém é pre­ciso estar aler­ta à ampli­ação da vig­ilân­cia sobre a pop­u­lação. Em ter­mos morais e políti­cos, quais os riscos à pri­vaci­dade e ao dire­ito de livre cir­cu­lação nas cidades?

“Temos a vig­ilân­cia em escala ampli­a­da em ambi­entes de grande cir­cu­lação de pes­soas, e pre­cisamos anal­is­ar que out­ras camadas de dire­ito vão ser flex­i­bi­lizadas. Não ape­nas o de se loco­mover, o de mobil­i­dade, o dire­ito à cidade, aos espaços onde se pos­sa cir­cu­lar e não ter o risco de ser abor­da­do erronea­mente, mas tam­bém é pre­ciso res­guardar o dire­ito à pri­vaci­dade e à livre expressão ness­es espaços. No Brasil, tem aumen­ta­do cada vez mais o uso dessa tec­nolo­gia sem uma reflexão dos riscos e sem relatórios de impacto dela”, afir­ma.

A reportagem da Agên­cia Brasil entrou em con­ta­to com os gov­er­nos do esta­do do Rio de Janeiro e da Bahia, cita­dos na matéria, para que apre­sen­tassem mais dados e infor­mações sobre o sis­tema de recon­hec­i­men­to facial. Mas não obteve respos­ta até o momen­to.

Edição: Fer­nan­do Fra­ga

LOGO AG BRASIL

Você pode Gostar de:

Justiça de SP extingue penas de policiais pelo massacre do Carandiru

Repressão policial a uma rebelião resultou na morte de 111 detentos André Richter — Repórter …