Você está sendo vigiado. E não apenas por câmeras comuns, mas por sistemas que comparam, classificam e identificam rostos — muitas vezes sem que a pessoa sequer saiba. Um estudo da Defensoria Pública da União (DPU) em parceria com o Centro de Estudos de Segurança e Cidadania (CESeC) revela que o Brasil já tem 376 projetos ativos de reconhecimento facial, com potencial de monitorar quase 83 milhões de pessoas — cerca de 40% da população.
Segundo o relatório “Mapeando a Vigilância Biométrica”, divulgado em 7 de maio, essas tecnologias começaram a se espalhar no país após os grandes eventos esportivos, como a Copa do Mundo de 2014 e os Jogos Olímpicos de 2016. Prometendo mais segurança e auxílio na localização de criminosos e desaparecidos, os sistemas se tornaram presença constante nas cidades brasileiras — mas com pouca transparência e quase nenhuma regulação.
O levantamento revela que os projetos de vigilância facial já movimentaram pelo menos R$ 160 milhões em recursos públicos, embora nem todos os estados tenham prestado informações. A maioria das câmeras é gerida por órgãos de segurança pública, e o uso costuma ocorrer sem consentimento dos cidadãos.
Além do risco à privacidade, os especialistas destacam as falhas técnicas e os vieses raciais das tecnologias. Um dos casos mais emblemáticos é o do personal trainer João Antônio Trindade Bastos, retirado de um estádio em Aracaju após ser erroneamente identificado como foragido. Bastos é negro — grupo que, segundo o relatório, é desproporcionalmente afetado por erros desse tipo.
Um estudo do CESeC identificou 24 casos de falhas graves entre 2019 e abril de 2025. Em mais da metade das abordagens policiais baseadas em reconhecimento facial no Brasil, houve identificações equivocadas. Pesquisas internacionais apontam que os sistemas têm taxas de erro 10 a 100 vezes maiores para negros, indígenas e asiáticos, em comparação com pessoas brancas.
Apesar dos riscos, não há uma legislação específica em vigor no Brasil. Em dezembro de 2024, o Senado aprovou o Projeto de Lei nº 2338/2023, que busca regular o uso de inteligência artificial, incluindo as tecnologias de reconhecimento facial. No entanto, especialistas criticam o texto por conter muitas exceções, o que, na prática, pode autorizar o uso irrestrito desses sistemas.
Diante disso, o relatório recomenda debate público urgente, padronização de protocolos, auditorias independentes e maior transparência nos contratos. Também sugere a exigência de autorização judicial para o uso de dados obtidos por reconhecimento facial e a limitação do armazenamento de dados biométricos.
Para os autores, é fundamental que a tramitação do PL 2338 na Câmara dos Deputados leve em conta as falhas e os riscos apontados. “O relatório evidencia tanto os vieses raciais quanto o mau uso de recursos públicos e a falta de mecanismos de controle”, afirma Pablo Nunes, coordenador do CESeC.