Vídeos de políticos criados por inteligência artificial já são uma realidade no cenário eleitoral brasileiro. Essas montagens, conhecidas como "deepfakes", usam tecnologia avançada para criar conteúdos falsos, mas convincentes, com o objetivo de espalhar desinformação ou manipular a opinião pública. Aprender a identificar os sinais de manipulação tornou-se uma ferramenta essencial para o eleitor.

Um "deepfake" combina áudio e vídeo de uma pessoa para fazê-la dizer ou fazer algo que nunca aconteceu. Embora a tecnologia esteja cada vez mais sofisticada, a maioria das criações ainda deixa rastros que podem ser percebidos com um olhar atento. Detalhes como a movimentação dos olhos, a textura da pele e a sincronia labial costumam entregar a fraude. 

Analisar o contexto em que o vídeo foi compartilhado também é fundamental. Conteúdos polêmicos ou chocantes, divulgados primeiro em redes sociais ou aplicativos de mensagem, sem a cobertura de veículos de imprensa confiáveis, são um forte indício de manipulação. A desconfiança é o primeiro passo para evitar a disseminação de notícias falsas.

Sinais de alerta para identificar um 'deepfake'

  • Olhos e piscar: a movimentação dos olhos pode parecer robótica ou pouco natural. Fique atento à frequência com que a pessoa pisca. Vídeos manipulados frequentemente mostram piscadas em excesso ou a ausência delas.

  • Sincronia labial: observe se a fala não corresponde perfeitamente ao movimento da boca. Muitas vezes, há um pequeno atraso ou uma falta de sincronia que denuncia a manipulação digital.

  • Pele e rosto: a pele pode parecer excessivamente lisa, como se tivesse um filtro, ou borrada em alguns pontos. As bordas do rosto, especialmente perto do cabelo e do pescoço, podem apresentar falhas ou distorções.

  • Iluminação inconsistente: verifique se as sombras no rosto da pessoa correspondem à iluminação do ambiente. Inconsistências, como uma sombra que não faz sentido, são um forte sinal de alerta.

  • Voz e áudio: uma fala sem emoção, com ritmo estranho ou pausas artificiais, pode indicar que o áudio foi gerado por IA. Ruídos de fundo que não condizem com a cena também são suspeitos.

Dicas e ferramentas práticas

  • Reduza a velocidade do vídeo: use os controles da plataforma, como no YouTube, para assistir em câmera lenta (0.25x ou 0.5x). Isso facilita a identificação de falhas na sincronia labial e distorções no rosto.

  • Procure a fonte original: antes de acreditar ou compartilhar, verifique se o vídeo foi publicado nos canais oficiais do político ou em veículos de imprensa conhecidos. A ausência do conteúdo nessas fontes é um grande indício de falsidade.

  • Pesquise por capturas de tela: tire um print de um trecho do vídeo e use a busca reversa de imagens no Google. Isso pode ajudar a encontrar a origem do clipe ou revelar se ele já foi desmentido por agências de checagem.

Siga nosso canal no WhatsApp e receba notícias relevantes para o seu dia

Uma ferramenta de IA foi usada para auxiliar na produção desta reportagem, sob supervisão editorial humana.

compartilhe