A União Europeia (UE) está próxima de se tornar líder mundial na adoção de uma legislação que busca conter abusos na utilização da Inteligência Artificial (IA), enquanto assegura o avanço dessa tecnologia. O projeto de lei, que será votado nesta semana no Parlamento Europeu, inclui medidas como a proibição da vigilância biométrica, do uso de reconhecimento facial em locais públicos e do monitoramento por meio de IA.





Atualmente, é fácil encontrar ferramentas digitais capazes de gerar textos, imagens e códigos com base em informações disponíveis na internet. O ChatGPT, um dos programas de IA mais conhecidos, pode interagir com usuários, traduzir textos em segundos e sugerir ideias, entre outras habilidades.

Leia: O que é ChatGPT e por que alguns o veem como ameaça?

O temor da UE é que geradores de conteúdo como esse possam ser utilizados para disseminar desinformação, manipular opiniões por meio de imagens falsas ou servir como instrumento para regimes autoritários adotarem sistemas de vigilância em massa. A solução proposta pela UE é a supervisão humana da IA, garantindo que todas as etapas do processo - desde o início da operação, coleta de dados até a aplicação da tecnologia - sejam acompanhadas por pessoas.

Especialistas afirmam que o crescimento e a prosperidade da Europa neste século estão ligados à maneira como o continente utilizará dados e tecnologias conectadas. Nesse contexto, a IA, extremamente poderosa, pode ser usada tanto para fins benéficos quanto maléficos.




 
 
 
Há dois anos, a Comissão Europeia apresentou um projeto ambicioso para regulamentar a IA, estabelecendo quatro níveis de risco - de baixo a inaceitável - relacionados ao potencial de perigo que a nova tecnologia representa para a saúde, segurança e direitos fundamentais. O documento prevê multas de até € 30 milhões ou 6% da receita global das empresas que desobedecerem às regras.

O projeto de lei também sugere a criação de um Conselho Europeu de Inteligência Artificial para supervisionar a implementação da legislação e garantir sua aplicação no bloco. No entanto, as gigantes da tecnologia só deverão adotar essas novas regras a partir de 2026. Por isso, alternativas como códigos voluntários estão sendo propostas para tentar limitar os riscos da IA.

A UE solicitou às grandes empresas de tecnologia, como Meta (Instagram e Facebook), Google, YouTube e TikTok, que alertem seus usuários sobre conteúdos gerados por IA com potencial de desinformação antes mesmo das leis digitais entrarem em vigor. Mais de 40 empresas já aderiram ao código de conduta voluntário da UE, exceto o Twitter de Elon Musk, que saiu no mês passado.





Nesta semana, o projeto de lei sobre a regulamentação da IA será votado no Parlamento Europeu. As comissões parlamentares do Mercado Interno e das Liberdades Civis aprovaram, no mês passado, um texto mais rígido para a Lei da Inteligência Artificial. Os deputados europeus concordaram em proibir a identificação biométrica remota - com técnicas auxiliadas pela IA - para reconhecer pessoas a partir de fotos ou filmagens em locais públicos.

Além disso, os parlamentares desejam estabelecer regras para as IA que geram conteúdo a partir de entrada humana limitada, como o ChatGPT ou a ferramenta de geração de imagens Midjourney. Eles defendem que esses sistemas devem possuir altos padrões de transparência, estarem alinhados aos direitos humanos e as empresas devem informar o conteúdo protegido por direitos autorais utilizado para treinar esses modelos. Após a votação na quarta-feira (14), as negociações avançarão para uma nova fase, na qual os legisladores finalizarão os detalhes com a Comissão Europeia e os países membros do bloco.

compartilhe