Mais de 600 funcionários do Google pediram, nesta segunda-feira (27), que a empresa rejeite um acordo proposto com o Pentágono que permitiria que sua tecnologia de inteligência artificial seja usada em operações militares confidenciais, segundo um comunicado.
A carta, dirigida ao diretor-executivo do Google, Sundar Pichai, chega em um momento em que a gigante da tecnologia está em negociações com o Departamento de Defesa para implementar o Gemini, seu principal modelo de IA, para trabalhos confidenciais.
"Os trabalhos confidenciais são, por definição, obscuros", disse no comunicado um funcionário organizador da iniciativa, que não foi identificado.
"Agora mesmo, não há forma de garantir que nossas ferramentas não sejam usadas para causar danos terríveis ou erodir as liberdades civis longe do escrutínio público. Estamos falando de coisas como caracterizar pessoas ou apontar contra civis inocentes", acrescentou.
O Google não respondeu de imediato a um pedido de comentários.
Mais de 20 diretores, diretores-sênior e vice-presidentes estão entre os signatários.
A gigante da tecnologia é uma das companhias que concorrem para preencher o vácuo deixando pela Anthropic para ser o próximo provedor de IA do governo em trabalhos confidenciais e não confidenciais.
O Google já tem um contrato com o Pentágono para trabalhos não confidenciais através de um programa conhecido como genAI.mil.
A Anthropic processou o Pentágono por tê-la designado como "risco para a cadeia de suprimentos", depois que a empresa pediu que sua tecnologia não fosse usada para a vigilância em massa nos Estados Unidos ou para uma guerra automatizada.
Segundo a carta, o Google propôs uma linguagem contratual que evitaria que o Gemini fosse usado com fins de vigilância doméstica em massa ou para o desenvolvimento de armas autônomas sem um controle humano apropriado.
No entanto, o Pentágono pressionou para que seja usada uma redação ampla de "todos os usos legais", que considera necessária para manter a flexibilidade operacional.
Os funcionários dizem que as salvaguardas propostas são tecnicamente inaplicáveis e apontam para a política do Pentágono, que proíbe que entidades externas imponham controles sobre seus sistemas de IA.
"Se a direção realmente levar a sério a prevenção de danos futuros, deve recusar por completo, por enquanto, as cargas de trabalho confidenciais", disse um segundo signatário da carta.
Siga nosso canal no WhatsApp e receba notícias relevantes para o seu dia
arp/ksb/mvl/dga/mvv/am