
Comissão do Senado deve votar regulamentação da IA nesta terça (9/7)
A votação estava marcada para a última quinta-feira, mas foi adiada por conta de alterações no relatório. Projeto pode ser votado em plenário antes do recesso
Mais lidas
compartilhe
Siga noA comissão temporária sobre inteligência artificial (CTIA) deve votar nesta terça-feira (9/7) o projeto de lei que regulamenta o assunto (IA) no Brasil. Na quinta-feira (4/7), o relator, Eduardo Gomes (PL-TO), fez a leitura da Complementação de Voto do texto alternativo ao Projeto de Lei (PL) 2338/2023, de autoria do senador Rodrigo Pacheco (PSD-MG). A matéria seria votada em seguida, mas teve deliberação adiada em razão de uma atualização no relatório.
Leia também: Desvios de Bolsonaro com joias foram de R$ 6,8 milhões, afirma PF em errata
Com o adiamento, a votação da matéria, e outras nove propostas que tramitam em conjunto, ficou agendada para iniciar às 10h desta terça. A CTIA é o único colegiado a analisar o projeto antes de ir a plenário, portanto, se aprovado, o texto pode ir para análise da Casa Alta antes do recesso, que começa em 18 de julho.
A proposta estabelece princípios e direitos sobre a IA no país, além de regras para uso, implementação e fiscalização da tecnologia de acordo com o risco que a atividade oferece. O projeto busca “proteger os direitos fundamentais” e garantir “sistemas seguros e confiáveis” e tem como fundamento a “centralidade da pessoa humana”, ou seja, prevê que, para qualquer criação feita a partir da inteligência artificial, é necessário, antes, observar se obedece os interesses da população e quais benefícios serão conferidos.
08/07/2024 - 15:24 Governo desmente plano de cobrar mensalidade de alunos ricos em federais 08/07/2024 - 15:28 Caso das joias: Moraes retira sigilo do inquérito manda PGR se manifestar 08/07/2024 - 16:37 PL do Ipsemg já pode ser votado em primeiro turno
Entre as regras previstas, está a proibição do uso, desenvolvimento e implementação de sistemas de IA que induzam o comportamento da pessoa ou de grupos de maneira que cause danos à saúde; explorem quaisquer vulnerabilidades de pessoas ou grupos; possibilitem a produção, disseminação ou facilitem a criação de material que caracterize ou represente abuso ou exploração sexual de crianças e adolescentes; sistemas de armas autônomas (SAA); entre outros.
Projeto
O projeto também proíbe o uso da ferramenta no âmbito do poder público, mais especificamente da segurança pública quando o objetivo for a captura e identificação de criminosos. A matéria veda a utilização de sistemas "que avaliem os traços de personalidade, as características ou o comportamento passado, criminal ou não, de pessoas singulares ou grupos, para avaliação de risco de cometimento de crime, infrações ou de reincidência".
Ferramentas com o propósito de identificação biométrica à distância em tempo real e espaços públicos; instrução de inquérito ou processo criminal; busca de vítimas de crimes, de pessoas desaparecidas ou em circunstâncias que envolvam ameaça grave e iminente à vida ou à integridade física de pessoas naturais; flagrante delito de crimes punidos com pena privativa de liberdade superior a dois anos; e recaptura de réus evadidos, cumprimento de mandados de prisão e de medidas restritivas ordenadas pelo Poder Judiciário também foram proibidas.
Esses sistemas foram enquadrados nos parâmetros considerados pelo projeto como “risco excessivo”. A proposição cria regras diferentes para faixas regulatórias definidas de acordo com o risco à sociedade, além dos que são proibidos, a matéria divide as possibilidades de uso da IA entre “alto risco”, que será controlado por meio de regras mais rígidas; ou não nenhuma das duas categorias, recebendo, assim, normas mais brandas. Para determinar o risco, um sistema de IA deverá passar por uma avaliação preliminar feita pelos próprios desenvolvedores, fornecedores ou operadores.
Os sistemas de alto risco são permitidos, mas estarão sujeitos a regras mais duras que os sistemas de IA comuns. O texto prevê a necessidade de registro das operações realizadas, testes de confiabilidade e elaboração de uma “avaliação de impacto algorítmico” sobre os direitos fundamentais a ser entregue aos órgãos fiscalizadores. É o caso de veículos autônomos; sistemas que auxiliem em diagnósticos ou procedimentos médicos; uso de IA na aplicação da lei, entre outros.