O avanço da inteligência artificial generativa tem ampliado não apenas as possibilidades de inovação, mas também os riscos no ambiente digital. Ferramentas acessíveis e de baixo custo reduziram a barreira técnica para criminosos, que agora conseguem criar conteúdos altamente convincentes em escala.

Essa realidade explica o aumento recente das fraudes digitais baseadas em engenharia social com IA, como deepfakes, clonagem de voz e vishing. Um relatório da Serasa Experian aponta que o Brasil registrou quase 7 milhões de tentativas de fraude apenas no primeiro semestre de 2025, o que equivale a uma ocorrência a cada 2,3 segundos.

Além disso, um levantamento da Associação de Defesa de Dados Pessoais e do Consumidor (ADDP), divulgado pelo portal Olhar Digital, identificou cerca de 28 milhões de golpes envolvendo Pix entre janeiro e setembro de 2025, além de 2,7 milhões de fraudes em compras online e 1,6 milhão de golpes via WhatsApp.

De acordo com Clerio Almeida, CEO da Brasiline Tecnologia, esses números mostram como o ambiente digital se tornou terreno fértil para ataques cada vez mais sofisticados. “Hoje, qualquer pessoa consegue criar conteúdos altamente convincentes em escala, o que impulsiona esse tipo de fraude”, afirma.

Como identificar os tipos de fraude

Siga nosso canal no WhatsApp e receba notícias relevantes para o seu dia

Os golpes com IA utilizam recursos avançados para simular rostos, vozes ou interações humanas reais. No vishing, criminosos efetuam ligações se passando por executivos ou instituições confiáveis, explorando a credibilidade da voz clonada. Já os deepfakes replicam imagens e vídeos de pessoas conhecidas, induzindo as vítimas a acreditar em situações falsas.

A clonagem de voz segue a mesma lógica, reproduzindo timbres e entonações de forma tão realista que dificulta a diferenciação entre original e falso. “O nível de realismo é o que torna essas técnicas mais difíceis de identificar em comparação com fraudes tradicionais. As mensagens, áudios e vídeos são altamente personalizados e convincentes, reduzindo os sinais clássicos de fraude”, explica Almeida.

A sofisticação desses ataques exige atenção redobrada. Os sinais de alerta incluem pedidos urgentes fora do padrão, mudanças incomuns de comportamento em contatos conhecidos, solicitações financeiras inesperadas e dificuldades em confirmar a identidade por outros canais. “Esses indícios devem ser levados a sério, pois podem indicar um golpe com uso de IA”, reforça o executivo.

O impacto não se limita às vítimas individuais. Empresas também enfrentam riscos elevados, já que ataques podem comprometer cadeias produtivas, gerar prejuízos financeiros substanciais e afetar a reputação institucional. “A IA eleva o nível das ameaças, tornando os ataques mais sofisticados e escaláveis. Ao mesmo tempo, também fortalece a defesa, permitindo análises preditivas e respostas mais rápidas a incidentes”, detalha Almeida.

Estudos internacionais corroboram essa tendência. Relatório da Europol de 2024 destacou que deepfakes já estavam sendo usados em fraudes financeiras e campanhas de desinformação, alertando para o risco de manipulação em larga escala e evidenciando a vulnerabilidade das pessoas diante dessas tecnologias.

Entre as estratégias de proteção, o CEO destaca que a combinação de tecnologias como autenticação multifator, validação de identidade e monitoramento contínuo constitui um dos pilares do combate às fraudes. “A Brasiline oferece testes de phishing que simulam ataques reais para treinar colaboradores, aumentando a percepção de risco e fortalecendo a cultura de segurança dentro das organizações”, conclui o CEO.

Para saber mais, basta acessar: Phishing Security Test (PST)



Website: https://brasiline.com.br/solucoes-e-servicos/phishing-security-test-pst/
compartilhe