MODERAÇÃO

Como as redes sociais combatem lives com ameaças e conteúdo violento

Entenda como tecnologias de inteligência artificial e equipes de moderação em plataformas como o TikTok agem para derrubar vídeos perigosos

Publicidade
Carregando...

Um caso recente em Ipatinga (MG) exemplificou a agilidade das plataformas digitais em conter ameaças. No dia 10 de março, a transmissão ao vivo de um adolescente com um simulacro de arma nas proximidades de uma escola foi rapidamente detectada pelo TikTok. A própria inteligência artificial da plataforma identificou o conteúdo perigoso e alertou as autoridades, levando à apreensão do jovem no mesmo dia. O episódio mostra como a combinação de tecnologia e ação humana é crucial para identificar e derrubar conteúdos violentos em tempo real.

Fique por dentro das notícias que importam para você!

SIGA O ESTADO DE MINAS NO Google Discover Icon Google Discover SIGA O EM NO Google Discover Icon Google Discover

O processo é complexo e começa antes mesmo de um usuário fazer uma denúncia. As plataformas utilizam sistemas de inteligência artificial (IA) que monitoram as transmissões ao vivo de forma proativa. Esses algoritmos são treinados para detectar sinais de violação das regras da comunidade.

Leia Mais

Como a inteligência artificial funciona

A tecnologia atua como a primeira linha de defesa, analisando múltiplos fatores simultaneamente para identificar possíveis ameaças. Essa varredura automática busca por padrões específicos que podem indicar perigo iminente ou conteúdo inadequado.

Os principais pontos de análise da IA incluem:

  • Análise visual: a tecnologia é capaz de identificar objetos como armas, facas ou símbolos associados a grupos de ódio diretamente no vídeo.

  • Palavras-chave: o sistema monitora o áudio da live e os comentários em busca de termos relacionados a violência, ameaças ou discurso de ódio.

  • Engajamento suspeito: um aumento súbito e anormal de denúncias ou de comentários negativos em uma transmissão pode acionar um alerta para revisão imediata.

Quando a inteligência artificial detecta uma violação clara e grave, como a exibição de uma arma, a transmissão pode ser interrompida automaticamente. No entanto, em casos mais subjetivos, o conteúdo é encaminhado para análise humana.

A importância da moderação humana

A tecnologia, apesar de avançada, ainda não compreende totalmente o contexto. Por isso, equipes de moderadores humanos trabalham 24 horas por dia para revisar o conteúdo sinalizado. São eles que tomam a decisão final de remover um vídeo, suspender ou banir uma conta.

Esses profissionais são essenciais para interpretar nuances que a IA pode não captar. Além da revisão do material sinalizado pelos algoritmos, eles analisam as denúncias feitas pelos próprios usuários, que continuam sendo uma ferramenta fundamental para manter o ambiente das redes mais seguro.

Siga nosso canal no WhatsApp e receba notícias relevantes para o seu dia

Uma ferramenta de IA foi usada para auxiliar na produção desta reportagem, sob supervisão editorial humana.

Tópicos relacionados:

internet moderadores seguranca violencia

Acesse o Clube do Assinante

Clique aqui para finalizar a ativação.

Acesse sua conta

Se você já possui cadastro no Estado de Minas, informe e-mail/matrícula e senha. Se ainda não tem,

Informe seus dados para criar uma conta:

Digite seu e-mail da conta para enviarmos os passos para a recuperação de senha:

Faça a sua assinatura

Estado de Minas

Estado de Minas

de R$ 9,90 por apenas

R$ 1,90

nos 2 primeiros meses

Aproveite o melhor do Estado de Minas: conteúdos exclusivos, colunistas renomados e muitos benefícios para você

Assine agora
overflay