Os reflexos do uso da IA na advocacia
A IA deve ser compreendida como ferramenta de apoio, e não como instância autônoma de decisão
compartilhe
SIGA
LEANDRO HENRIQUES GONÇALVES - Advogado, pós-graduado em Direito Tributário
O uso de ferramentas de inteligência artificial (IA) já se incorporou de forma definitiva à rotina dos operadores do direito. Advogados, departamentos jurídicos, peritos, assessorias e até magistrados vêm utilizando IA para análise de documentos, revisão de contratos, elaboração de minutas, síntese de peças e apoio à tomada de decisões.
Esse avanço trouxe ganhos relevantes de eficiência e produtividade. Contudo, como ocorre com toda tecnologia amplamente adotada, também introduziu riscos ainda pouco debatidos, capazes de comprometer a confiabilidade das análises realizadas.
Um desses riscos – ainda desconhecido por parte significativa da comunidade jurídica – é o chamado prompt injection.
De forma objetiva, prompt injection consiste na inserção de comandos ocultos em documentos, capazes de interferir no comportamento ou nas respostas de ferramentas de inteligência artificial que venham a analisá-los. Tais comandos não são perceptíveis a olho nu, mas podem ser interpretados pelo sistema e influenciar diretamente o resultado da análise produzida pela IA.
Esses comandos podem ser inseridos de diversas maneiras: por meio de textos com fonte invisível, redução extrema do tamanho da fonte, sobreposição de camadas, utilização de texto alternativo ou mesmo pela inclusão de instruções nos metadados do arquivo. Em todos os casos, trata-se de informações que passam despercebidas ao leitor humano, mas não à ferramenta de IA.
No contexto jurídico, o risco é evidente. Documentos processuais, contratos, laudos, pareceres ou quaisquer outros arquivos submetidos a sistemas de IA podem conter instruções ocultas capazes de direcionar, enviesar ou limitar a análise, sem que o usuário perceba.
Alguns exemplos práticos ajudam a dimensionar o problema. Em um deles, um advogado insere comandos ocultos em uma contestação orientando a IA a concluir pela improcedência dos pedidos iniciais. Ao submeter a inicial e a contestação à ferramenta de IA para análise ou síntese do processo, o julgador, assessor ou servidor recebe um resumo já influenciado por instruções maliciosas. Outro exemplo: um contrato contém comandos ocultos orientando a IA a ignorar determinadas cláusulas. A outra parte, seu advogado ou o setor jurídico solicita à IA a revisão do documento e, seguindo as instruções inseridas, a ferramenta deixa de apontar disposições relevantes. Mais uma possibilidade: documentos submetidos à perícia contêm comandos ocultos que direcionam a análise técnica realizada com apoio de IA, conduzindo o perito a conclusões enviesadas ou incompletas. Finalmente: instruções ocultas orientam a IA a desconsiderar determinada tese jurídica ou prova constante dos autos. O resultado entregue ao magistrado, assessor ou gestor jurídico é um relatório ou resumo processual que omite informações relevantes, com potencial impacto na decisão final.
Os exemplos acima são simplificados, mas evidenciam um ponto central: o risco não está restrito à atuação dolosa, mas também ao uso automático, acrítico ou excessivamente confiante de ferramentas de inteligência artificial, especialmente quando documentos de terceiros são inseridos diretamente no sistema sem qualquer validação prévia.
Diante desse cenário, torna-se indispensável que advogados, magistrados, servidores públicos, peritos e gestores jurídicos adotem cuidados mínimos no uso da IA. Algumas medidas que podem mitigar esses riscos incluem: remoção de metadados, comentários, camadas ocultas e caracteres invisíveis antes da submissão de documentos à IA; bloqueio ou neutralização de instruções eventualmente contidas nos próprios arquivos analisados; utilização de ferramentas que identifiquem padrões suspeitos ou comandos embutidos; garantia de que as instruções fornecidas diretamente pelo usuário à IA prevaleçam sobre qualquer conteúdo interno do documento; e, sobretudo, revisão humana criteriosa de todo material produzido ou analisado com apoio de inteligência artificial.
A IA deve ser compreendida como ferramenta de apoio, e não como instância autônoma de decisão. A responsabilidade final pela análise, validação e utilização das informações permanece humana – e jurídica.
Sob o aspecto ético e legal, a utilização deliberada de prompt injection pode, conforme o caso, caracterizar litigância de má-fé, ato atentatório à dignidade da Justiça ou até fraude processual, além de ensejar responsabilizações civis, administrativas, disciplinares e éticas.
Siga nosso canal no WhatsApp e receba notícias relevantes para o seu dia
Mais do que um debate tecnológico, trata-se de um alerta institucional e profissional. À medida que a inteligência artificial se consolida como instrumento cotidiano no meio jurídico, cresce também a necessidade de cautela, governança e responsabilidade no seu uso, para que a busca por eficiência não comprometa a integridade da análise jurídica e da própria prestação jurisdicional.