Acompanhada por duas amigas, Thaís Santos, uma auxiliar administrativa sergipana de 31 anos, estava empolgada para o Pré-Caju, a tradicional micareta de Aracaju. No entanto, a diversão se transformou em pesadelo.
Um erro na Inteligência Artificial (IA) utilizada no reconhecimento facial das câmeras do evento fez com que a jovem fosse erroneamente identificada duas vezes como uma foragida da Justiça. Durante uma das duas abordagens, ela chegou a urinar.
Thaís relata que, trinta minutos após chegar à micareta, três agentes à paisana da PM a abordaram. Perguntaram seu nome e solicitaram documentos. Como ela estava sem o RG, o constrangimento começou.
“Questionei do que se tratava e quem seriam eles. Um dos polícias se identificou e informou que estava à paisana. Disse que a abordagem era um protocolo de segurança, pois eu teria sido identificada pela câmera de segurança como uma possível foragida.” Thaís Santos, auxiliar administrativa
Após a confirmação da identidade da criminosa procurada, ela foi liberada. Não sem antes visualizar a foto da mulher. “Ela não se parecia comigo”.
Duas horas depois, enquanto aproveitava o trio da cantora Ivete Sangalo, quatro policiais militares a abordaram novamente. Desta vez, de maneira violenta e brutal. Exigiram que ela colocasse as mãos para trás para ser algemada.
“Eu já estava chorando e nervosa, informando que eu não tinha feito nada. Um dos policiais dizia que eu sabia o que tinha feito. No mesmo momento, eu urinei nas calças. Fui conduzida para o camburão da polícia como uma marginal, como todo mundo ali presenciando todo o constrangimento pelo qual eu estava passando. Nunca fui tão humilhada em minha vida, sem nunca ter feito nada de errado na vida.” Thaís Santos, auxiliar administrativa
Após o último incidente de abordagem equivocada, Santos voltou para casa angustiada e apreensiva.
Vítima de erro vê racismo em abordagem com IA
Thaís relata que nunca se debruçou sobre a tecnologia que a colocou em situação constrangedora na festa, mas acredita que o erro tenha uma inclinação para o racismo.
“Fui discriminada publicamente por ser pobre e preta” afirma ela.
Governo admite erro e diz que revisará uso de IA
Em resposta a Tilt, a SSP (Secretaria de Segurança Pública) de Sergipe reconheceu o equívoco.
Declarou que “houve uma grande similaridade apontada pela identificação facial com outra pessoa, que possuía mandado de prisão em aberto”.
“A tecnologia não tem 100% de precisão se realmente é a pessoa apontada no banco de mandados, por isso a necessidade de uma verificação minuciosa.” SSP de Sergipe
A Corregedoria da Polícia Militar iniciou um procedimento para investigar a ocorrência. A PM afirmou que “irá rever os protocolos para evitar falhas nos próximos eventos com uso da identificação facial”.
Durante o Pré-Caju, conforme informações da SSP, 27 câmeras estavam em operação com o sistema de reconhecimento facial. Elas contribuíram, segundo a PM, na detenção de três pessoas procuradas por homicídio e estelionato.
![Mulher se urina de medo ao ser levada no camburão da PM por erro de IA](https://osegredo.com.br/wp-content/uploads/2023/11/Design-sem-nome-2023-11-16T134650.897.png.webp)
Reconhecimento facial por IA pode ser racista?
Assim como outras câmeras de reconhecimento facial, as utilizadas pela SSP de Sergipe contam com Inteligência Artificial (IA), que compara características dos rostos capturados com aquelas presentes em bancos de dados.
Ferramentas desse tipo enfrentam resistência por parte de pesquisadores, que observam inconsistências em relação à população negra e às pessoas trans.
De acordo com o pesquisador Tarcízio Silva, que investiga o tema há seis anos, a ferramenta empregada no Pré-Caju é arriscada, pois “tecnologias de reconhecimento facial são altamente imprecisas para encontrar pessoas específicas”.
O sociólogo Sérgio Amadeu da Silveira, da UFABC (Universidade Federal do ABC), compartilha dessa opinião. Ele destaca que o reconhecimento facial tem sido utilizado na segurança pública para categorizar “classes perigosas, setores marginalizados”.
“Nas periferias, esse sistema vai confirmar preconceitos e vieses já existentes, vai ampliar práticas discriminatórias e racistas num país como o nosso, que mata jovens negros”, acrescenta.
Isso acontece pela falta de neutralidade dos algoritmos, que acabam reproduzindo a discriminação social. “Essas tecnologias são probabilísticas, têm um erro embutido nesse reconhecimento”, destaca Amadeu.