Goleada na falta de transparência: nova Lei do Esporte mira na insegurança, mas identificação biométrica reflete o racismo vivenciado por toda a nação.

por Katiele Ferreira 

Katiele Ferreira é publicitária, mestranda em Comunicação pela Universiversidade Federal do Ceará e pesquisadora do GT-Vigilância do LAPIN.

“Medo, frustração e constrangimento”. Essas foram as emoções que João Antônio Trindade Bastos sentiu em 13 de abril de 2024, ao ser algemado e levado diante de milhares de pessoas na Arena Batistão. A apreensão aconteceu na final do Campeonato Sergipano de Futebol, onde a tecnologia de reconhecimento facial (TRF) falhou e causou uma situação constrangedora e humilhante para o torcedor, que foi solto após comprovar sua identificação.  

A ocasião deixou o país em alerta sobre os perigos do uso de reconhecimento facial nos estádios brasileiros, espaço cultural que envolve milhares de pessoas em todas as regiões do país. Além da institucionalização de um estado de vigilância, as detenções indevidas podem se tornar mais frequentes nos próximos meses, já que entrou em vigor em junho de 2023 a Lei Geral do Esporte (nº 14.597/2023), que obriga o uso de identificação biométrica  nos estádios com capacidade para mais de 20 mil pessoas. 

Apesar da Lei não indicar o uso de TRFs como a biometria obrigatória, houve uma escolha política por essa categoria, apesar de ter outras escolhas consideravelmente menos invasivas como a identificação digital. Em 2023, já havia um acordo de cooperação entre o Ministério da Justiça e Segurança Pública e a CBF para a criação do Projeto Estádio Seguro 1e implementação da tecnologia de reconhecimento facial. Já naquele momento, a Autoridade Nacional de Proteção de Dados (ANPD) indicou graves irregularidades no processo, sobretudo no Relatório de Impacto à Proteção de Dados Pessoais no Ministério da Justiça e Segurança Pública (MJSP).

A Lei Geral do Esporte traz preocupações  sobre a proteção a direito na era digital, especialmente no que diz respeito à privacidade, ao tratamento de dados pessoais e à segurança dos torcedores. A ANPD, após ser notificada pela Secretaria Nacional do Consumidor (SENACON), também se manifestou sobre o uso dessa tecnologia nos estádios de futebol, destacando inclusive preocupação em relação às crianças e adolescentes expostos a TRF e ao uso de dados pessoais para o âmbito da segurança pública. 

As Notas Técnicas lançadas pela ANPD nº 5/2025/FIS/CGF/ANPD e nº 11/2025/FIS/CGF/ANPD, indicam a irregularidade do tratamento de dados pessoais realizado pelos clubes de futebol referem-se ao uso de biometria facial, emitindo vinte e três recomendações às instituições envolvidas no tratamento, uso e compartilhamento dos dados. O objetivo do documento é analisar criticamente o cenário e propor diretrizes para conter os riscos de violação à privacidade dos usuários, já que há uma troca de informações entre as empresas envolvidas na venda de ingressos, a empresa de captação das biometrias e os próprios clubes e estádios.

A Autoridade expôs a preocupação com o uso de dados de crianças e adolescentes menores de 16 anos, já que diversas das medidas tomadas pelos clubes não encontram fundamentação contundente na Lei Geral de Proteção de Dados (LGPD), no Estatuto da Criança e do Adolescente (ECA) e nas disposições sobre proteção de dados e privacidade contidas na Constituição Federal. Nesse sentido, a recomendação é de que os clubes devem cessar imediatamente a coleta de dados biométricos de torcedores menores de 16 anos como condição de acesso aos estádios, pois sequer há consentimento adequado e evidente. O cerceamento do acesso ao estádio pela desautorização dos pais ao uso dos dados de crianças também foi entendido como inconstitucional e ilegal, de modo que deve ser uma conduta rechaçada.

O posicionamento da nota é bastante relevante nesse ponto. Crianças e adolescentes são considerados sujeitos de absoluta proteção e prioridade, devendo todas as medidas tomadas com relação a eles serem pensadas para sua melhor segurança. Nesse sentido, os impactos que já são bastante prejudiciais para adultos, podem reverberar de maneira ainda mais expressiva para a infância e juventude, seja pela falta de transparência com qual finalidade se capta estes dados, seja porque nutrem sistemas de possível criminalização e reprodução de estigmas. 

Em outro prisma, a ANPD também analisou questões sobre transparência no uso conferido aos dados dos torcedores. A ANPD sinalizou sobre a  pouca clareza no manuseio das informações de identificação biométrica dos usuários, o que gera insegurança e viola as legislações previstas. Recomendou que os clubes apresentem relatório formal que avalie os riscos do uso do TRF e medidas adotadas para mitigá-los​, reforçando medidas de segurança, como anonimização, criptografia e controle de acesso aos dados​.

A nota da ANPD prioriza também “identificar potenciais riscos no tratamento de dados pessoais no âmbito de sistemas de reconhecimento facial e assegurar o cumprimento da LGPD quanto ao tratamento de dados”. (ANPD, 2014, p. 8).  Segundo a Autoridade, a legislação não apontou norma específica que instituísse o uso compartilhado dos dados pessoais dos torcedores com o Poder Público, especialmente para finalidades de segurança pública. Ressalta-se o receio em empresas privadas utilizarem de forma indevida dados coletados na TRF, já que é sabido os interesses comerciais e de publicidade que cercam as mesmas.

Erros e discriminação

A maneira como a tecnologia de reconhecimento facial é usada para fins de segurança pública recebe diversas críticas de instituições voltadas à defesa dos direitos humanos, especialmente por se provar ser uma tecnologia imprecisa, cuja aplicação demonstra a ocorrência recorrente de situações de discriminação racial e de gênero (Piauí, 2021), já que  muitas vezes endossados ou negligenciados por seus idealizadores (Buolamwini, 2018).

Afastando-se da falácia de que a tecnologia digital é neutra, estudos em todo o país apontam para os erros reiterados que ocorrem na identificação de pessoas negras. O cenário tem acarretado, inclusive, prisões arbitrárias e constrangimentos a grupos que já são vulnerabilizados sociorracialmente,  Para explicar, trazemos os casos de jovens como Danilo Félix, de 26 anos, que foi preso por erro de identificação facial em NIterói (RJ) em 2020, provando sua inocência apenas em 2023; da diarista Debora Cristina da Silva, presa por engano em março deste ano, em Petrópolis (RJ); e ainda do torcedor Daniel da Silva, preso injustamente na Arena Castelão em abril deste mesmo ano, por consequência de erro de identificação facial. 

É preciso anotar que as falhas nos falso-positivos expõem a replicação, pelos algoritmos, de padrões e estereótipos já culturalmente enraizados na sociedade, isto é, a tecnologia reproduz um comportamento humano que é social, cultural e político, de modo que seus desenvolvedores precisam estar ativamente atentos para evitar implicações injustas para os usuários.

O racismo em face de pessoas negras – condutas que, por exemplo, inferiorizam e desvalorizam as pessoas por meio da diferenciação de fenótipos divergentes dos padrões arqueados pela branquitude -, passa a se exprimir por meio do modo de captação e processamento dos dados biométricos dos cidadãos. O algoritmo bebe dos padrões de reconhecimento humano, que são advindos de uma cultura marcadamente racista. 

Assim, esses aspectos reforçam a criminalização de pessoas negras e fortalecem estigmas discriminatórios, historicamente atribuídos a essa população. O LAPIN  O LAPIN se coaduna aos estudos e às instituições que falam sobre os projetos que os estados têm implementado no âmbito do reconhecimento facial e das suas consequências no seu uso. Em 2022, no Vigilância automatizada: uso de reconhecimento facial pela Administração Pública no Brasil, reunimos exemplos nacionais do uso de câmeras de videomonitoramento e sistemas de reconhecimento facial pelo setor público nas esferas municipal, estadual e federal, e concluímos que não há transparência e mecanismos asseguradores de proteção de dados e segurança na implementação das tecnologias de vigilância no Brasil. (LAPIN, p. 40, 2022). 

É o que também mostra o estudo “Um Rio de câmeras com olhos seletivos: Uso do reconhecimento facial pela polícia fluminense” (PANÓPTICO, 2022) que fez um apanhado do uso da tecnologia de reconhecimento pela prefeitura do Rio de Janeiro. O estudo apontou número alto de falso-positivos, que causaram apreensões injustas, como a detenção de uma mulher que foi confundida com uma outra que já estava presa.  O relatório também concluiu, após utilizar o recurso com a Lei de Acesso à Informação, que dentre os 11 casos de pessoas detidas com o uso da tecnologia de reconhecimento facial nas partidas do Maracanã, sete foram erros da máquina, ou seja: falsos positivos. Desta forma, o sistema errou em 63% dos casos. (PANÓPTICO, 2022, p. 13). 

De olho em novos projetos

Inúmeros projetos de vigilância fervilham pelo País, muitos deles ainda deixam dúvidas sobre a inclusão ou não de mecanismos como os do reconhecimento facial. A Bahia, por exemplo, é marcada por ser um dos estados onde já existe um considerável uso dessa ferramenta. O contexto aponta o noticiamento de casos nos quais pessoas foram vítimas das falhas dessa tecnologia, muitas situações, inclusive, evidenciam a presença de uma seletividade racista. 

Em recente estudo elaborado pelo LAPIN, analisamos o Projeto Câmera Interativa, desenvolvido pela Secretaria de Segurança Pública do Estado da Bahia (SSP/BA). O projeto tem a premissa de compartilhar as gravações de câmeras de domínio de pessoas físicas e privadas com a Secretaria. No Relatório “Câmara Interativa na Bahia: Videovigilância, uso inadequado de dados pessoais e o cercamento público-privado sobre corpos marginalizados” foi realizado um pedido de informação, baseado na Lei de Acesso à Informação , com a pretensão de saber se as imagens captadas faziam utilização de tecnologia de reconhecimento facial. Em resposta, a SSP/BA disse: “No presente momento, essas imagens ainda não estão integradas ao sistema de reconhecimento facial, sendo utilizadas apenas com recurso de videomonitoramento urbano, sem inclusão de analíticos.” 

A despeito do posicionamento, a Secretaria parece ter mudado de ideia já que o Superintendente de Gestão Tecnológica e Organizacional da pasta, Frederico Medeiros Vasconcelos de Albuquerque, revelou que as imagens da Casa de Apostas Arena Fonte Nova(de Salvador) serão compartilhadas com o já instituído sistema de reconhecimento facial da Bahia. Na ocasião, Frederico mencionou que “esses esforços fazem parte do projeto Câmera Interativa da SSP-BA”. Existe uma continuidade entre o que está acontecendo no âmbito do Câmera Interativa com o que acontece no uso do reconhecimento facial nos grandes estádios: uma expansão da vigilância massiva ancorada nos sistemas de Inteligência Artificial e no compartilhamento de dados pessoais entre atores públicos e privados, em detrimento à proteção de direitos. 

Conclusões

A Lei Geral do Esporte e a obrigatoriedade de reconhecimento facial em grandes estádios, descortina questões que ainda não foram devidamente solucionadas e que carecem de maior aprofundamento e discussão. A problemática também dialoga com outros debates importantes no campo dos direitos digitais, como a regulação da inteligência artificial prestes a ser debatida na Câmara dos Deputados, mas também formas de regulação do tratamento de dados pessoais na segurança pública. O caso do jovem preso em Sergipe é um exemplo claro de que a implementação de novas tecnologias deve ser questionada e de um olhar crítico e atento às questões envolvendo a cada vez mais cerceada liberdade e privacidade  em espaços públicos. 

Não tão somente, a tecnologia de reconhecimento facial implica na hipertrofia de práticas de discriminação estatal em face a comunidades específicas. Os estádios, como um espaço de alta circulação de pessoas e centro de uma das formas mais populares de lazer entre brasileiros, se tornaram um laboratório de perseguição contra indivíduos e grupos, em específico, a população negra e em situação de vulnerabilidade econômica diante tanto das amarras históricas das instituições brasileiras de segurança ao racismo. No questionamento do uso da biometria facial nos estádios, abre-se uma porta para discutir a proteção de direitos em face às novas tecnologias de vigilância fora dos campos. 

  1. https://www.gov.br/mj/pt-br/assuntos/noticias/mjsp-e-cbf-assinam-acordo-...

O post Goleada na falta de transparência: nova Lei do Esporte mira na insegurança, mas identificação biométrica reflete o racismo vivenciado por toda a nação. apareceu primeiro em LAPIN.