Grok sob fogo: deepfakes, sexo e discurso de ódio – a controvérsia da IA de Elon Musk
O caso envolvendo a ferramenta de geração de imagens Grok, integrada à rede social X de Elon Musk, reacendeu o debate sobre os limites da inteligência artificial na criação de conteúdos visuais. Entenda a polêmica.
compartilhe
SIGA
O caso envolvendo a ferramenta de geração de imagens Grok, integrada à rede social X de Elon Musk, reacendeu o debate sobre os limites da inteligência artificial na criação de conteúdos visuais. Em poucas semanas de funcionamento, a tecnologia apareceu em investigações internacionais por possibilitar a produção de imagens sexualizadas. O caso incluindo retratos de crianças e de figuras públicas, sem qualquer tipo de consentimento. Assim, o episódio colocou em evidência a necessidade de regras mais claras para o uso de algoritmos de criação de imagens.
A divulgação de um estudo do Center for Countering Digital Hate (CCDH) trouxe números que chamaram a atenção de autoridades e especialistas em segurança digital. A análise de uma amostra das imagens geradas pelo Grok indicou uma quantidade expressiva de conteúdos sexualmente explícitos, muitos deles com características fotorrealistas. A partir daí, governos, órgãos reguladores e a própria empresa responsável pela rede social foram cobrados por medidas mais rígidas de proteção a crianças, adolescentes e adultos expostos por montagens digitais.
Grok e conteúdo sexualizado: o que a pesquisa do CCDH revelou?
A palavra-chave central desse debate é Grok, sistema de inteligência artificial ligado ao X, que ganhou um recurso de geração de imagens. Segundo o levantamento do CCDH, em apenas 11 dias foram criadas milhões de figuras com algum teor sexualizado, incluindo milhares com representação de menores de idade. O estudo partiu de um universo de milhões de imagens geradas no período e analisou, de forma mais detalhada, uma amostra de 20 mil arquivos.
Para classificar o material, os pesquisadores consideraram como sexualizadas as imagens que exibiam corpos em posições associadas a atos sexuais, uso de roupas íntimas ou trajes extremamente reveladores. Além disso, qualquer cena com fluidos de natureza sexual. Nesse conjunto apareceram tanto personagens fictícios quanto representações de pessoas identificáveis. Entre elas celebridades como Taylor Swift, Billie Eilish, Ariana Grande e a ex-vice-presidente dos Estados Unidos Kamala Harris. Em vários casos, a IA criou composições que imitavam fotografias reais, o que aumenta o risco de confusão e danos à imagem das pessoas envolvidas.
O estudo também apontou a presença de conteúdos que sugeriam idade infantil ou adolescente, com traços faciais e corporais associados a menores. De acordo com a organização, parte dessas imagens ainda permanecia acessível na plataforma no momento da análise, mesmo já apontadas como problemáticas. Portanto, esse cenário alimentou o argumento de que sistemas generativos precisam de filtros mais robustos para bloquear tanto a criação quanto a circulação de material que possa ser classificado como exploração sexual infantil.
Por que a geração de imagens íntimas sem consentimento preocupa autoridades?
A possibilidade de produzir nudes digitais e cenas íntimas falsas usando IA não é uma novidade. Porém, o caso Grok trouxe uma combinação considerada sensível: alto volume de usuários, produção em massa e associação direta a uma grande rede social. Assim, autoridades destacam que a criação de imagens íntimas sem autorização pode configurar violação de privacidade, difamação e assédio. Ademais, em situações que envolvem crianças, crime de abuso ou exploração sexual, independentemente de a cena ser real ou artificial.
Entre as principais preocupações levantadas estão:
- Facilidade de acesso: qualquer pessoa com uma conta ativa, em determinados períodos, conseguia gerar imagens explícitas com poucos comandos de texto.
- Dano à reputação: figuras públicas e pessoas comuns podem ter o nome e a imagem associados a conteúdos pornográficos sem qualquer participação direta.
- Risco para menores: imagens que sugerem idade infantil, ainda que geradas artificialmente, podem ser usadas em redes de troca de material ilegal.
- Dificuldade de remoção: uma vez compartilhadas, as imagens podem ser copiadas, baixadas e repostadas em diversos sites e aplicativos.
Diante da repercussão, autoridades de países como Indonésia e Malásia optaram por bloquear o acesso ao recurso de IA vinculado ao X. Já na Europa, no Reino Unido e na Índia, órgãos reguladores solicitaram esclarecimentos sobre os mecanismos de segurança. Assim, pedem garantias de que o sistema está alinhado às legislações locais de proteção de dados e combate à exploração infantil.
Tags
Quais medidas foram anunciadas para restringir o Grok?
Com o aumento da pressão internacional, a empresa responsável pelo X e pelo Grok passou a divulgar mudanças graduais nas regras de uso da ferramenta. Em um primeiro momento, a plataforma restringiu a edição de imagens a usuários pagantes, em uma tentativa de reduzir o número de contas utilizando o recurso para fins ilegais ou abusivos. A medida, porém, foi considerada limitada por críticos, porque ainda permitia que assinantes continuassem a solicitar a criação de conteúdo sexualizado.
Posteriormente foram anunciadas restrições técnicas adicionais, com ajustes nos filtros internos do modelo de IA para impedir comandos relacionados a nudez, exploração de menores e representações sexualizadas de pessoas identificáveis. Também foi reforçado o discurso de que qualquer produção de conteúdo ilegal via Grok teria o mesmo tratamento dado a uploads convencionais, incluindo possibilidade de banimento de contas e encaminhamento de dados às autoridades competentes.
Especialistas em segurança digital apontam alguns caminhos considerados essenciais para reduzir riscos em ferramentas semelhantes:
Siga nosso canal no WhatsApp e receba notícias relevantes para o seu dia
- Filtros de conteúdo mais rígidos: treinamento específico dos modelos para recusar pedidos que envolvam nudez, menores de idade ou violência sexual.
- Moderação humana de alto risco: revisão manual de solicitações suspeitas ou de usuários reincidentes em violações.
- Verificação de identidade: exigência de dados adicionais para acesso aos recursos de geração de imagens mais sensíveis.
- Transparência: publicação periódica de relatórios sobre remoção de conteúdo e falhas detectadas.
- Cooperação com autoridades: canais diretos com polícias e órgãos internacionais focados em combate a abuso sexual infantil.
O caso Grok passou a ser usado como exemplo em debates sobre regulação de inteligência artificial em diferentes países. O episódio mostra como uma ferramenta projetada para entretenimento e criação de conteúdo pode rapidamente se transformar em um vetor de risco quando não existem barreiras técnicas e políticas claras. À medida que novas plataformas de geração de imagens surgem, cresce a tendência de que governos, empresas de tecnologia e organizações da sociedade civil discutam padrões mínimos de segurança, especialmente na proteção de crianças e na prevenção de montagens íntimas sem consentimento.