Estudo revela que 376 projetos monitoram 40% da população, sem lei específica, com erros, viés racial e riscos à privacidade
![]() |
Foto: Marcelo Camargo/Agência Brasil |
Sorria. Você pode estar sendo observado – e não apenas por uma câmera de segurança. Seu rosto pode estar sendo capturado, comparado com bancos de dados, associado a suspeitas e até mesmo confundido com criminosos. Tudo isso sem que você tenha a menor ideia. É o que alerta o relatório Mapeando a Vigilância Biométrica, lançado nesta quarta-feira (7) pela Defensoria Pública da União (DPU) e pelo Centro de Estudos de Segurança e Cidadania (CESeC), da Universidade Candido Mendes, no Rio de Janeiro.
O documento mostra que, desde a realização da Copa do Mundo de 2014, o Brasil se transformou num laboratório a céu aberto para o uso das chamadas Tecnologias de Reconhecimento Facial (TRFs), sobretudo por parte do poder público, que vê nesses sistemas uma ferramenta de combate ao crime e de localização de pessoas desaparecidas.
“O reconhecimento facial vem sendo amplamente incorporado por órgãos públicos no Brasil, em processo que começou com a realização dos megaeventos no país – especialmente a Copa do Mundo de Futebol, em 2014, e os Jogos Olímpicos, em 2016”, afirmam os autores da pesquisa, destacando a adoção cada vez mais disseminada de câmeras e softwares sofisticados em áreas públicas.
Até abril de 2025, o país acumulava pelo menos 376 projetos ativos de reconhecimento facial. Somados, esses sistemas têm o potencial de vigiar cerca de 83 milhões de brasileiros – ou seja, aproximadamente 40% da população. Apenas os dados fornecidos por 23 das 27 unidades da federação apontam que os investimentos públicos nesses projetos já somaram ao menos R$ 160 milhões. Quatro estados – Amazonas, Maranhão, Paraíba e Sergipe – não prestaram informações.
Mesmo diante desse cenário, o estudo destaca que o Brasil ainda não conta com uma legislação específica que regule o uso dessas tecnologias. “As soluções regulatórias estão atrasadas”, alertam os pesquisadores da DPU e do CESeC, que também apontam a ausência de mecanismos de controle externo, falta de padronização técnica e operacional, e escassez de transparência nos contratos e na operação dos sistemas. A combinação desses fatores cria um ambiente fértil para abusos, erros graves, discriminação e desperdício de recursos públicos.
Rostos confundidos, direitos violados
Um levantamento paralelo feito pelo CESeC identificou 24 casos de erros envolvendo sistemas de reconhecimento facial no Brasil entre 2019 e abril de 2025. Um dos mais emblemáticos foi o do personal trainer João Antônio Trindade Bastos, de 23 anos, negro, abordado por policiais militares em abril de 2024 enquanto assistia à final do Campeonato Sergipano no Estádio Lourival Batista, em Aracaju.
Retirado da arquibancada sob suspeita, Bastos foi revistado de forma ríspida e interrogado. Só após apresentar documentos e responder a uma série de perguntas é que soube o motivo da abordagem: o sistema de reconhecimento facial instalado no estádio o havia confundido com um foragido da Justiça. Indignado, o jovem denunciou o caso nas redes sociais. A repercussão levou o governo de Sergipe a suspender o uso da tecnologia pela Polícia Militar, que até então já havia efetuado mais de dez detenções com base no sistema.
Casos como o de Bastos não são isolados. Segundo o relatório, mais da metade das abordagens realizadas pelas forças de segurança no Brasil com base em reconhecimento facial resultaram em identificações equivocadas. Os erros atingem principalmente pessoas negras e, conforme pesquisas internacionais citadas no estudo, sistemas de inteligência artificial usados para reconhecimento biométrico apresentam taxas de falha de 10 a 100 vezes maiores para indivíduos negros, indígenas e asiáticos do que para brancos.
Essa disparidade motivou o Parlamento Europeu, ainda em 2021, a alertar sobre os riscos de vieses discriminatórios e imprecisões técnicas dos sistemas de reconhecimento facial aplicados em espaços públicos.
Debate legislativo e permissividade preocupante
Em meio ao avanço da tecnologia e à ausência de salvaguardas legais, o Senado aprovou, em dezembro de 2024, o Projeto de Lei nº 2338/2023, que pretende regulamentar o uso da inteligência artificial no Brasil, incluindo os sistemas biométricos aplicados à segurança pública. Contudo, o texto ainda precisa ser apreciado pela Câmara dos Deputados, que criou, recentemente, uma comissão especial para discutir o tema.
Apesar de conter dispositivos que sugerem a proibição do uso de tecnologias de reconhecimento facial em tempo real em espaços públicos, o PL abre uma série de exceções – como investigações criminais, flagrantes, busca por desaparecidos e recaptura de foragidos – que, na prática, segundo os especialistas, equivalem a uma “autorização ampla” para que o Estado siga utilizando a tecnologia.
“Considerando o histórico de abusos e a falta de mecanismos eficazes de controle, essa abertura para uso acaba mantendo a possibilidade de um estado de vigilância e de violação de direitos”, adverte o relatório.
Urgência de regulação e controle público
Diante dos riscos identificados, os pesquisadores da DPU e do CESeC recomendam a aprovação urgente de uma legislação específica que discipline o uso das TRFs, com protocolos padronizados que respeitem o devido processo legal. Também sugerem a realização de auditorias independentes periódicas e o fortalecimento dos órgãos de controle.
Entre as medidas propostas, estão: a obrigatoriedade de autorização judicial prévia para o uso das imagens captadas em investigações; a limitação do tempo de armazenamento dos dados biométricos; a transparência nos contratos e bases de dados utilizados; a capacitação de agentes públicos; e a fiscalização sobre empresas privadas que operam esses sistemas.
“Esperamos que esses achados possam não só orientar e subsidiar a tramitação do PL 2338 na Câmara dos Deputados, mas também servir de alerta para que órgãos reguladores e de controle estejam atentos ao que ocorre no Brasil. O relatório evidencia tanto os vieses raciais no uso da tecnologia quanto problemas de mau uso de recursos públicos e falta de transparência na sua implementação”, conclui Pablo Nunes, coordenador-geral do CESeC.