...
sábado ,17 maio 2025
Home / Ciência, Tecnologia, inteligência artificial / Estudo aponta riscos de tecnologias de reconhecimento facial

Estudo aponta riscos de tecnologias de reconhecimento facial

Brasil tem ao 376 projetos ativos, capazes de vigiar 40% da população

Alex Rodrigues — Repórter da Agên­cia Brasil
Pub­li­ca­do em 07/05/2025 — 08:02
Brasília
Passageiros testam o Embarque + Seguro, programa de reconhecimento facial para embarque em aeroportos.
Repro­dução: © Marce­lo Camargo/Agência Brasil

Sor­ria! Seu ros­to está sendo não só fil­ma­do, mas tam­bém clas­si­fi­ca­do, com­para­do e iden­ti­fi­ca­do, prin­ci­pal­mente por órgãos públi­cos de segu­rança. Na maio­r­ia das vezes sem seu con­hec­i­men­to. É o que mostra pesquisa da Defen­so­ria Públi­ca da União (DPU) em parce­ria com o Cen­tro de Estu­dos de Segu­rança e Cidada­nia (CESeC), insti­tu­ição acadêmi­ca vin­cu­la­da à Uni­ver­si­dade Can­di­do Mendes, no Rio de Janeiro. 

Divul­ga­do nes­ta quar­ta-feira (7), o relatório Mape­an­do a Vig­ilân­cia Bio­métri­ca apon­ta que, após sedi­ar a Copa do Mun­do, em 2014, o Brasil se tornou um vas­to cam­po de vig­ilân­cia dig­i­tal onde as chamadas tec­nolo­gias de Recon­hec­i­men­to Facial (TRFs) encon­traram solo fér­til para se espal­har. Graças, em parte, à promes­sa de facil­i­tar a iden­ti­fi­cação de crim­i­nosos e a local­iza­ção de pes­soas desa­pare­ci­das.

“O recon­hec­i­men­to facial vem sendo ampla­mente incor­po­ra­do por órgãos públi­cos no Brasil, em proces­so que começou com a real­iza­ção dos megaeven­tos no país – espe­cial­mente a Copa do Mun­do de Fute­bol, em 2014, e os Jogos Olímpi­cos, em 2016”, sus­ten­tam os defen­sores públi­cos fed­erais da DPU e mem­bros do CESeC, referindo-se às sofisti­cadas e caras câmeras de recon­hec­i­men­to facial, cada vez mais pre­sentes na pais­agem urbana.

Segun­do os pesquisadores, em abril deste ano havia, no Brasil, ao menos 376 pro­je­tos de recon­hec­i­men­to facial ativos. Jun­tos, ess­es empreendi­men­tos têm o poten­cial de vigiar quase 83 mil­hões de pes­soas, o equiv­a­lente a cer­ca de 40% da pop­u­lação brasileira. E já movi­men­ta­ram ao menos R$ 160 mil­hões em inves­ti­men­tos públi­cos — val­or cal­cu­la­do a par­tir das infor­mações que 23 das 27 unidades fed­er­a­ti­vas fornece­r­am aos respon­sáveis pelo estu­do — não respon­der­am à pesquisa, fei­ta entre jul­ho e dezem­bro de 2024, o Ama­zonas, Maran­hão, a Paraí­ba e Sergipe.

“A despeito de todo esse cenário, as soluções reg­u­latórias estão atrasadas”, sus­ten­tam os pesquisadores da DPU  e do CESeC, asse­gu­ran­do que o Brasil ain­da não tem leis para dis­ci­pli­nar o uso dos sis­temas de vig­ilân­cia dig­i­tal, em par­tic­u­lar das câmeras de recon­hec­i­men­to facial.

Além dis­so, para os espe­cial­is­tas, fal­tam mecan­is­mos de con­t­role exter­no, padrões téc­ni­co-opera­cionais uni­formes e transparên­cia na imple­men­tação dos sis­temas. O que amplia as chances de ocor­rerem erros graves, vio­lações de pri­vaci­dade, dis­crim­i­nação e mau uso de recur­sos públi­cos.

Erros

Em out­ro lev­an­ta­men­to, o CESeC mapeou 24 casos ocor­ri­dos entre 2019 e abril de 2025, nos quais afir­ma ter iden­ti­fi­ca­do fal­has dos sis­temas de recon­hec­i­men­to facial. O mais con­heci­do deles é o do per­son­al train­er João Antônio Trindade Bas­tos, de 23 anos.

Em abril de 2024, poli­ci­ais mil­itares reti­raram Bas­tos da arquiban­ca­da do Está­dio Louri­val Batista, em Ara­ca­ju (SE), durante a par­ti­da final do Campe­ona­to Sergi­pano. Eles con­duzi­ram o rapaz até uma sala, onde o revis­taram de for­ma rísp­i­da. Só após checarem toda a doc­u­men­tação de Bas­tos, que teve que respon­der a várias per­gun­tas para com­pro­var que era quem ele dizia ser, os PMs rev­e­laram que o sis­tema de recon­hec­i­men­to facial implan­ta­do no está­dio o tin­ha con­fun­di­do com um for­agi­do.

Indig­na­do, Bas­tos usou as redes soci­ais para faz­er um desabafo con­tra a injustiça sofri­da. A reper­cussão do caso lev­ou o gov­er­no de Sergipe a sus­pender o uso da tec­nolo­gia pela PM — que, segun­do notí­cias da época, já a tin­ha usa­do para deter mais de dez pes­soas.

Bas­tos é negro. Como a maio­r­ia das pes­soas iden­ti­fi­cadas pelos sis­temas de vig­ilân­cia e recon­hec­i­men­to facial, no Brasil e em out­ros país­es — de acor­do com o relatório da DPU e do CESeC, há indi­cadores de que 70% das forças poli­ci­ais do mun­do têm aces­so a algum tipo de TRF e que 60% dos país­es têm recon­hec­i­men­to facial em aero­por­tos. No Brasil, “mais da metade das abor­da­gens poli­ci­ais moti­vadas por recon­hec­i­men­to facial resul­taram em iden­ti­fi­cações equiv­o­cadas, evi­den­cian­do o risco de prisões inde­v­i­das”.

“As pre­ocu­pações com o uso dessas tec­nolo­gias não são infun­dadas”, aler­tam os espe­cial­is­tas, citan­do pesquisas inter­na­cionais segun­do as quais, em alguns casos, as taxas de erros dos sis­temas são “despro­por­cional­mente ele­vadas para deter­mi­na­dos gru­pos pop­u­la­cionais, sendo de dez a 100 vezes maiores para pes­soas negras, indí­ge­nas e asiáti­cas em com­para­ção com indi­ví­du­os bran­cos”. Essa con­statação motivou o Par­la­men­to Europeu a, em 2021, aler­tar que “[as] impre­cisões téc­ni­cas dos sis­temas de Inteligên­cia Arti­fi­cial [IA], con­ce­bidos para a iden­ti­fi­cação bio­métri­ca a dis­tân­cia de pes­soas sin­gu­lares, podem con­duzir a resul­ta­dos enviesa­dos e ter efeitos dis­crim­i­natórios.”

Legislação

Ao tratar dos “desafios insti­tu­cionais e nor­ma­tivos”, os pesquisadores lem­bram que, em dezem­bro de 2024, o Sena­do aprovou o Pro­je­to de Lei n.º 2338/2023, que bus­ca reg­u­la­men­tar o uso de inteligên­cia arti­fi­cial, incluin­do sis­temas bio­métri­cos na segu­rança públi­ca. Para se tornar lei, a pro­pos­ta terá que ser aprova­da pela Câmara dos Dep­uta­dos que, no mês pas­sa­do, criou uma comis­são espe­cial para debater o tema.

Além dis­so, para os pesquisadores da DPU e do CESeC, emb­o­ra o PL pro­pon­ha a proibição do uso de sis­temas de iden­ti­fi­cação bio­métri­ca a dis­tân­cia e em tem­po real em espaços públi­cos, o tex­to aprova­do pelo Sena­do pre­vê tan­tas exceções que, na práti­ca, fun­ciona “como uma autor­iza­ção ampla para a imple­men­tação” dess­es sis­temas.

“As cat­e­go­rias de per­mis­sões [no tex­to aprova­do] incluem inves­ti­gações crim­i­nais, fla­grante deli­to, bus­ca por desa­pare­ci­dos e recap­tura de for­agi­dos, situ­ações que abrangem um espec­tro con­sid­eráv­el de ativi­dades da segu­rança públi­ca. Con­sideran­do o históri­co de abu­sos e a fal­ta de mecan­is­mos efi­cazes de con­t­role, essa aber­tu­ra para uso aca­ba man­ten­do a pos­si­bil­i­dade de um esta­do de vig­ilân­cia e de vio­lação de dire­itos.”

Recomendações

Os pesquisadores con­cluem defend­en­do a urgên­cia de um “debate públi­co qual­i­fi­ca­do”, com a par­tic­i­pação ati­va da sociedade civ­il, mem­bros da acad­e­mia e rep­re­sen­tantes de órgãos públi­cos de con­t­role e de organ­is­mos inter­na­cionais. 

Eles tam­bém recomen­dam o que clas­si­fi­cam como “medi­das urgentes”, como a aprovação de uma lei nacional especí­fi­ca para reg­u­la­men­tar o uso da tec­nolo­gia; a padroniza­ção de pro­to­co­los que respeit­em o dev­i­do proces­so legal e a real­iza­ção de audi­to­rias inde­pen­dentes e reg­u­lares.

Os espe­cial­is­tas tam­bém apon­tam a neces­si­dade de que os órgãos públi­cos deem mais transparên­cia aos con­tratos e às bases de dados uti­liza­dos, garan­ti­n­do o aces­so da pop­u­lação a infor­mações claras sobre os sis­temas de recon­hec­i­men­to facial e capac­i­tan­do os agentes públi­cos que lidam com o tema. E sug­erem a obri­ga­to­riedade de autor­iza­ção judi­cial prévia para uso das infor­mações obti­das com o uso das TRFs em inves­ti­gações, bem como a lim­i­tação tem­po­ral para armazena­men­to de dados bio­métri­cos e o for­t­alec­i­men­to do con­t­role sobre empre­sas pri­vadas que oper­am ess­es sis­temas.

“Esper­amos que ess­es acha­dos pos­sam não só ori­en­tar e sub­sidiar a trami­tação do PL 2338 na Câmara dos Dep­uta­dos, mas tam­bém servir de aler­ta para que órgãos reg­u­ladores e de con­t­role este­jam aten­tos ao que ocorre no Brasil. O relatório evi­den­cia tan­to os vieses raci­ais no uso da tec­nolo­gia quan­to prob­le­mas de mau uso de recur­sos públi­cos e fal­ta de transparên­cia na sua imple­men­tação”, afir­ma, em nota, o coor­de­nador-ger­al do CESeC, Pablo Nunes.

LOGO AG BRASIL

Você pode Gostar de:

Orquestra de Câmara da USP celebra 30 anos com concertos gratuitos

Serão duas apresentações: uma nesta sexta, às 20; outra no domingo Matheus Cro­belat­ti* – estag­iário …