Jornal Estado de Minas

DIREITO E INOVAÇÃO

Palmeiras e a polêmica do reconhecimento facial

Conteúdo para Assinantes

Continue lendo o conteúdo para assinantes do Estado de Minas Digital no seu computador e smartphone.

Estado de Minas Digital

de R$ 9,90 por apenas

R$ 1,90

nos 2 primeiros meses

Utilizamos tecnologia e segurança do Google para fazer a assinatura.

Experimente 15 dias grátis

A análise dos elencos e a posição na tabela de cada equipe indicam um favoritismo do clube paulista. O Palmeiras é o segundo e o time paranaense é o último. Por isso, se alguém quer ganhar um bom dinheiro, vale apostar na vitória do lanterna.





Mas o tema que tem ganhado destaque no noticiário sobre a partida é outro. Segundo nota divulgada, a partir deste jogo, o acesso ao Allianz Parque, arena do Palmeiras, só será permitido por meio de reconhecimento facial. Para isso, os torcedores, incluindo os sócios, deverão fazer um registro prévio no site do clube. A medida seria uma estratégia para combater a atuação de cambistas.

Quem não concordou com o método adotado foi a WTorre, empresa que administra o estádio. Ela também divulgou uma nota demonstrando preocupação com possíveis violações do Código de Defesa do Consumidor e da Lei Geral de Proteção de Dados e com a ausência de comprovação sobre a segurança do sistema utilizado.

Em uma primeira análise, parece que a empresa está com a razão. O risco da adoção do reconhecimento facial está relacionado à natureza destes dados. São dados biométricos, classificados como sensíveis pela lei, pois sua utilização pode trazer maior vulnerabilidade a direitos e liberdades fundamentais do titular.




Em um explicação simples, o dado é coletado por um software que contém algoritmos que mapeiam padrões nos rostos das pessoas e os armazenam em um banco de dados para serem comparados posteriormente.

Os principais riscos desta coleta são a possibilidade de vazamento dos dados e seu uso indevido. Estudos apontam que os sistemas geralmente contém falhas que, por si só, podem gerar discriminação. Já foram identificadas situações em que a biometria facial reconheceu com mais precisão pessoas brancas do que negras, por exemplo.

Isso pode ocorrer porque as máquinas (ainda) são alimentadas por humanos e acabam reproduzindo seus vieses. Para entender melhor a questão e a chamada discriminação algorítmica, vale a dica de um filme. O
documentário Codebias, disponível na Netflix.





Enfim, a questão não é simples e já foi objeto de pronunciamento do nosso judiciário. No mês passado, o Tribunal de Justiça manteve a condenação da Via Quatro, concessionária da Linha Amarela do Metrô de São Paulo por utilizar indevidamente o sistema de câmeras de segurança para captação de imagens de usuários com fins comerciais e publicitários. O valor da indenização por danos morais coletivos fixado em primeira instância em R$ 100 mil foi aumentado para R$ 500 mil. A ação foi proposta pelo IDEC (Instituto de Defesa do Consumidor).

O tema também é tratado no texto do PL 2.338/2023, elaborado para regular o uso da inteligência artificial (IA) no país. O texto adota uma classificação de risco e o sistema biométrico de identificação é enquadrado como de alto risco (art. 17, X).

O projeto também prevê a responsabilidade por danos causados aos titulares dos dados, sejam
eles torcedores do Palmeiras, ou não.

O autor desta coluna é Advogado, Especialista e Mestre em Direito Empresarial. É sócio da Empresa Tríplice Marcas e Patentes e do escritório Ribeiro Rodrigues Advocacia

Sugestões e dúvidas podem ser enviadas para o email lfelipeadvrr@gmail.com