...
terça-feira ,10 dezembro 2024
Home / Ciência, Tecnologia, inteligência artificial / Reconhecimento facial está presente em todos os estados do Brasil

Reconhecimento facial está presente em todos os estados do Brasil

Repro­dução: © Fer­nan­do Frazão/Agência Brasil

País tem, pelo menos, 195 projetos voltados para essa tecnologia


Pub­li­ca­do em 31/08/2023 — 06:43 Por Daniel Mel­lo — Repórter da Agên­cia Brasil — São Paulo

ouvir:

O Brasil tem, pelo menos 195 pro­je­tos que usam o recon­hec­i­men­to facial para ações de segu­rança públi­ca, segun­do a pesquisa Panóp­ti­co do Cen­tro de Estu­dos de Segu­rança e Cidada­nia (CESeC). Segun­do o coor­de­nador do cen­tro, Pablo Nunes, foram iden­ti­fi­cadas ini­cia­ti­vas do tipo em todos os esta­dos brasileiros.

Entre 2019 e 2022, o estu­do iden­ti­fi­cou 509 casos de pes­soas pre­sas usan­do esse tipo de tec­nolo­gia. No entan­to, Nunes ressal­va que “o número de prisões com essa tec­nolo­gia é muito maior do que nós con­seguimos mon­i­torar”.

Os dados lev­an­ta­dos em 2019 pelo grupo mostram que das 184 prisões iden­ti­fi­cadas naque­le ano, mais de 90% eram de pes­soas negras. “A gente viu um apro­fun­da­men­to do per­fil nos pre­sos por recon­hec­i­men­to facial, foca­do em jovens negros pre­sos por crimes sem vio­lên­cia, prin­ci­pal­mente pela Lei de Dro­gas, que tem sido um grande instru­men­to de inchaço da nos­sa pop­u­lação carcerária”, diz Nunes.

A dis­tribuição dos pro­je­tos de recon­hec­i­men­to facial pelo país não responde, segun­do Nunes, a nen­hu­ma lóg­i­ca de estatís­ti­cas de crim­i­nal­i­dade ou de con­cen­tração pop­u­la­cional. De acor­do com o lev­an­ta­men­to, Goiás é o esta­do com maior número de pro­je­tos, com 45 ini­cia­ti­vas, segui­do pelo Ama­zonas, com 21 pro­je­tos, Paraná (14) e São Paulo (12).

Na cap­i­tal paulista, foi assi­na­do em agos­to o con­tra­to do Smart Sam­pa, pro­je­to que pre­vê a insta­lação de 20 mil câmeras de segu­rança pro­gra­madas para faz­er recon­hec­i­men­to facial até o final de 2024. O sis­tema cus­tará R$ 9,8 mil­hões por mês aos cofres públi­cos.

Os riscos de iden­ti­fi­cações erradas são desta­ca­dos no relatório Mais Câmeras, Mais Segu­rança?, lança­do pelo Insti­tu­to Igara­pé em 2020, anal­isan­do as exper­iên­cias de uso de câmeras asso­ci­adas à inteligên­cia arti­fi­cial em Sal­vador (BA), Camp­inas (SP) e no Rio de Janeiro. O prob­le­ma pode ocor­rer, segun­do o estu­do, caso a pro­gra­mação não seja fei­ta a par­tir de uma base de dados diver­sa de ros­tos.

Em out­ra pesquisa, lança­da em 2018, as pesquisado­ras Joy Buo­lamwi­ni, do Insti­tu­to de Tec­nolo­gia do Mass­a­chu­setts (MIT), e Timnit Gebru, à época na Microsoft, iden­ti­ficaram que as tec­nolo­gias de recon­hec­i­men­to facial chegavam a ter um índice de erro de 34,7% ao ten­tar iden­ti­ficar mul­heres de pele escu­ra. Entre os home­ns de pele clara, o per­centu­al, segun­do o estu­do, era de 0,8%.

Para o coor­de­nador do cen­tro de estu­dos, a for­ma como esse tipo de tec­nolo­gia está sendo imple­men­ta­da no Brasil demon­stra os riscos de dis­crim­i­nação racial sistêmi­ca con­tra pop­u­lações menos pro­te­gi­das social­mente, espe­cial­mente as pes­soas negras. “Enten­der a adoção dess­es algo­rí­ti­mos de recon­hec­i­men­to facial na segu­rança públi­ca no Brasil ilu­mi­na bas­tante os peri­gos e os poten­ci­ais de vio­lação que essas tec­nolo­gias podem ter quan­do uti­lizadas para per­se­cução penal”, enfa­ti­za.

Racismo algorítimico

Além dis­so, na visão do cen­tro de estu­dos, há a inver­são de pri­or­i­dades no uso dos recur­sos públi­cos que, como são lim­i­ta­dos, acabam fal­tan­do em out­ras áreas, nova­mente atingin­do a qual­i­dade de vida das pop­u­lações menos favore­ci­das. “Esse din­heiro que pode­ria estar sendo uti­liza­do para adoção de sanea­men­to bási­co em cidades que não o pos­suem tem sido uti­liza­do para câmeras de recon­hec­i­men­to facial, uma tec­nolo­gia cara, enviesa­da e racista”, anal­isa.

Para o pesquisador da Fun­dação Mozil­la, Tar­cízio Sil­va, o uso de dados bio­métri­cos de for­ma a crim­i­nalizar a pop­u­lação negra e o desvio de recur­sos que pode­ri­am mel­ho­rar as condições de vida dessas pop­u­lações para esse tipo de pro­je­to são faces de um fenô­meno chama­do racis­mo algo­rí­tim­i­co.

Entre out­ros danos cau­sa­dos pelo enviesa­men­to racista da tec­nolo­gia, Sil­va apon­ta, por exem­p­lo, a dis­sem­i­nação de desin­for­mação a par­tir de con­teú­dos ger­a­dos auto­mati­ca­mente por inteligên­cia arti­fi­cial. “Sis­temas algo­rí­tim­i­cos, infe­liz­mente, podem apro­fun­dar desin­for­mação, rep­re­sen­tações neg­a­ti­vas, tan­to políti­cas quan­to erronea­mente fac­tu­ais sobre o mun­do”, diz o pesquisador, que faz parte de um pro­je­to que iden­ti­fi­ca pre­juí­zos cau­sa­dos pelo uso enviesa­do da tec­nolo­gia.

Edição: Aline Leal

LOGO AG BRASIL

Você pode Gostar de:

Hemorragia não afeta função cerebral do presidente, diz médico de Lula

Paciente encontra-se lúcido e acordado Pedro Peduzzi — Repórter da Agên­cia Brasil Pub­li­ca­do em 10/12/2024 …