Geral

Deepfakes em 2026: como a tecnologia desafia leis globais e redefine a proteção da imagem na era digital

Nos últimos anos, a tecnologia de síntese de imagem deu um salto que transformou os chamados deepfakes em uma ferramenta sofisticada de manipulação visual e sonora. Saiba mais!

Publicidade
Carregando...

Nos últimos anos, a tecnologia de síntese de imagem deu um salto que transformou os chamados deepfakes em uma ferramenta sofisticada de manipulação visual e sonora. Em 2026, montagens hiper-realistas de rostos, vozes e corpos passaram a ser usadas tanto em entretenimento e publicidade quanto em fraudes de identidade, golpes financeiros e conteúdos íntimos não consentidos. Assim, esse cenário levou governos e organismos internacionais a acelerar normas de proteção de imagem e responsabilização no ambiente digital, numa disputa constante entre inovação tecnológica e preservação de direitos fundamentais.

Fique por dentro das notícias que importam para você!

SIGA O ESTADO DE MINAS NO Google Discover Icon Google Discover SIGA O EM NO Google Discover Icon Google Discover

O avanço dos algoritmos de inteligência artificial generativa reduziu o custo e a dificuldade técnica para produzir deepfakes. Hoje, poucos minutos de vídeo ou áudio bastam para treinar modelos capazes de reproduzir a aparência e a voz de uma pessoa com alta fidelidade. Assim, isso abriu espaço para novos tipos de crime. Desde a criação de vídeos falsos de líderes políticos para desinformação, até a simulação de executivos em chamadas de vídeo para autorizar transferências milionárias. Paralelamente, cresce o volume de imagens íntimas com manipulação e divulgação sem consentimento, o que intensifica debates sobre privacidade, honra e dano moral.

A tecnologia por trás dos deepfakes se apoia em redes neurais generativas, como GANs e modelos de difusão, capazes de aprender padrões de rosto, voz e movimento – depositphotos.com / ramirezom

Como os deepfakes evoluíram para fraudes de identidade e conteúdos não consensuais?

A tecnologia por trás dos deepfakes se apoia em redes neurais generativas, como GANs e modelos de difusão, capazes de aprender padrões de rosto, voz e movimento. Em 2026, ferramentas comerciais e de código aberto permitem, por exemplo, substituir o rosto de alguém em um vídeo em tempo real, sintetizar discursos inteiros com base em poucos trechos de áudio ou criar avatares digitais fotorrealistas. Esse ecossistema ampliou o potencial de fraude de identidade. Em especial, nos ambientes onde o reconhecimento visual sempre foi suficiente, como videoconferências, atendimentos remotos e verificações simplificadas em aplicativos.

No campo dos conteúdos não consensuais, os impactos são visíveis em três frentes principais. São eles: difusão de pornografia sintética com o rosto de pessoas reais; uso da imagem de figuras públicas para manipular narrativas políticas; e exploração de cidadãos comuns em esquemas de chantagem. Em muitos casos, as vítimas descobrem o material somente após ampla circulação em redes sociais e mensageiros, o que dificulta a remoção completa e o rastreamento da autoria. A combinação entre anonimato, velocidade de compartilhamento e facilidade de edição intensifica o desafio regulatório e exige respostas jurídicas mais robustas.

O que diz a Lei de IA da União Europeia sobre deepfakes e proteção de imagem?

A Lei de IA da União Europeia (EU AI Act), aprovada politicamente em 2023 e com implementação faseada até 2026, é hoje uma das referências globais em regulação de inteligência artificial. Afinal, o texto estabelece obrigações específicas para sistemas de IA usados na criação de conteúdos sintéticos. Uma das exigências centrais é a transparência: conteúdos gerados ou significativamente manipulados por IA devem ser claramente sinalizados como tal, incluindo deepfakes utilizados em contexto midiático, publicitário ou de plataformas online.

Além da rotulagem obrigatória, o regulamento classifica certos usos de deepfakes como de alto risco ou mesmo inaceitáveis, sobretudo quando relacionados a manipulação política, discriminação ou interferencia em processos democráticos. Fornecedores de tecnologia devem adotar medidas técnicas para evitar usos abusivos, como mecanismos de rastreio, logs de operação e protocolos de resposta a incidentes. O EU AI Act também reforça a proteção do direito à própria imagem e à privacidade, permitindo que cidadãos solicitem remoção, contestem decisões automatizadas e busquem reparação em casos de dano decorrente de conteúdo sintético enganoso.

  • Obrigação de rotular deepfakes em contexto público;
  • Regras mais rígidas para usos políticos e de segurança;
  • Mecanismos de responsabilização de desenvolvedores e usuários;
  • Direitos de contestação e reparação para indivíduos afetados.

Como a Coreia do Sul e o Brasil estão reagindo aos deepfakes em 2026?

A Coreia do Sul tem se destacado por diretrizes de segurança digital voltadas a ambientes de alta conectividade. O governo coreano, em articulação com reguladores de telecomunicações e grandes plataformas, expandiu normas específicas para conteúdos sintéticos de caráter sexual ou difamatório. Desde 2021, o país já previa penalidades para a produção e disseminação de pornografia deepfake sem consentimento; entre 2024 e 2026, essas regras foram atualizadas para cobrir também avatares 3D, realidade estendida e ferramentas que permitem manipulação em tempo real. As plataformas são pressionadas a implementar sistemas automáticos de detecção e rotulagem, além de canais rápidos de denúncia.

No Brasil, o tema se conecta diretamente à evolução das leis sobre crimes cibernéticos e proteção de dados. O Marco Civil da Internet, a Lei Geral de Proteção de Dados (LGPD) e a nova geração de projetos de lei sobre fake news e segurança digital vêm sendo usados como base para enquadrar deepfakes ofensivos como violação de privacidade, honra, imagem e, em certos casos, como crime contra a dignidade sexual. Nos últimos anos, o Congresso Nacional discutiu propostas específicas para criminalizar a criação e o compartilhamento de conteúdos sintéticos não consensuais, com previsão de aumento de pena quando houver finalidade de extorsão, assédio ou interferência eleitoral.

  1. Uso dos crimes contra a honra para enquadrar deepfakes difamatórios;
  2. Aplicação da LGPD quando dados biométricos são processados sem base legal;
  3. Debate sobre tipos penais específicos para pornografia de vingança sintética;
  4. Demandas por maior responsabilização de plataformas na remoção ágil de conteúdos.
A autenticação biométrica, quando usada de forma regulada e com base na legislação de proteção de dados, permite confirmar se a pessoa diante da câmera é real, reduzindo golpes baseados em deepfakes em chamadas de vídeo e processos de abertura de conta – depositphotos.com / dtjs

Quais soluções técnicas podem proteger o direito à própria imagem?

Enquanto o arcabouço jurídico se fortalece, cresce a adoção de soluções técnicas voltadas à prevenção de abusos. Duas linhas têm ganhado espaço: autenticação biométrica e marcas dágua digitais invisíveis. A autenticação biométrica, quando usada de forma regulada e com base na legislação de proteção de dados, permite confirmar se a pessoa diante da câmera é real, reduzindo golpes baseados em deepfakes em chamadas de vídeo e processos de abertura de conta. Serviços financeiros, empresas de tecnologia e órgãos públicos passaram a incorporar testes de prova de vida avançados, capazes de detectar inconsistências típicas de imagens geradas por IA.

As marcas dágua digitais, por sua vez, consistem em sinais embutidos em imagens, áudios e vídeos, imperceptíveis ao olho humano, mas identificáveis por sistemas de verificação. Grandes fabricantes de hardware e desenvolvedores de modelos de IA discutem padrões para inserir metadados criptográficos ou assinaturas digitais em conteúdos legítimos, facilitando a distinção entre material autêntico e sintético. Em paralelo, projetos de passaporte de mídia buscam registrar a cadeia de criação e edição de um arquivo, o que reforça a rastreabilidade em casos de litígio.

Entre as medidas práticas consideradas mais efetivas estão:

Siga nosso canal no WhatsApp e receba notícias relevantes para o seu dia

  • Incorporação de autenticação biométrica com liveness detection em serviços sensíveis;
  • Criação de padrões abertos de marcas dágua digitais invisíveis para conteúdos gerados por IA;
  • Treinamento de equipes de compliance e segurança para identificar sinais de manipulação;
  • Campanhas de educação digital sobre riscos de compartilhamento de imagens pessoais.

Nesse contexto, o debate internacional gira em torno do equilíbrio entre inovação e direito fundamental à imagem. Tecnologias de síntese visual seguem abrindo oportunidades em cinema, publicidade, saúde e acessibilidade, ao mesmo tempo em que ampliam o potencial de dano quando usadas sem consentimento ou transparência. Em 2026, a tendência observada em diferentes países é combinar normas de IA, proteção de dados e crimes cibernéticos com soluções técnicas de autenticação e rotulagem, numa tentativa de tornar o ambiente digital menos propício a fraudes de identidade e exposições indevidas.

Acesse o Clube do Assinante

Clique aqui para finalizar a ativação.

Acesse sua conta

Se você já possui cadastro no Estado de Minas, informe e-mail/matrícula e senha. Se ainda não tem,

Informe seus dados para criar uma conta:

Digite seu e-mail da conta para enviarmos os passos para a recuperação de senha:

Faça a sua assinatura

Estado de Minas

Estado de Minas

de R$ 9,90 por apenas

R$ 1,90

nos 2 primeiros meses

Aproveite o melhor do Estado de Minas: conteúdos exclusivos, colunistas renomados e muitos benefícios para você

Assine agora
overflay