Logomarca do Facebook, rede social da Meta -  (crédito: Anthony Quintano/Flickr)

Logomarca do Facebook, rede social da Meta

crédito: Anthony Quintano/Flickr

SÃO PAULO, SP (FOLHAPRESS) - O Conselho de Supervisão da Meta publicou um relatório nesta quinta-feira (2) elencando diretrizes para as big techs lidarem com desafios como desinformação e incitação à violência no contexto eleitoral.

 

Entre as sugestões estão investimento em moderação de conteúdo e o estabelecimento de padrões mínimos para eleições em todos os países.

 

"É imperativo que as empresas de mídias sociais tenham conhecimento suficiente do idioma e do contexto locais para orientar suas políticas eleitorais globais e práticas [em cada país]", afirma o documento.

 

Lançado em 2020 e financiado pela Meta, o conselho ("Oversight Board") funciona como uma espécie de corte de revisão de decisões relacionadas à moderação de conteúdo em plataformas da companhia. O órgão afirma que estrutura de governança permite que ele tome decisões independentes.

 

 

Usuários do Facebook, Instagram e Threads podem apelar a ele quando os graus de recurso à Meta já tiverem se encerrado.

 

A divulgação do relatório se dá no ano em que metade da população mundial passa por eleições. Enquanto no Brasil ocorrem pleitos locais, países como Estados Unidos e Índia têm disputas nacionais.

 

 

O conselho afirma que as nove diretrizes apresentadas foram embasadas por percepções formadas a partir dos diferentes casos analisados pelo órgão, formado por 22 especialistas de diferentes países.

 

Entre os exemplos eleitorais citados no relatório está um relacionado ao Brasil. No ano passado, o órgão considerou que a Meta errou ao não remover vídeo incitando a invasão e os ataques a Brasília. Também é mencionado o caso do bloqueio do perfil do ex-presidente dos Estados Unidos Donald Trump, no contexto do ataque ao Capitólio.

 

"Em ambas essas decisões, consideramos que a Meta deveria ter agido de modo mais rápido contra o estímulo ou legitimação da violência", diz trecho do documento.

 

Entre as recomendações do relatório está a importância de as empresas não apenas estabelecerem políticas de conteúdo adequadas, mas também de que garantam sua aplicação, por meio de investimentos, especialmente em situações em que há uma rápida escalada.

 

No caso de incitação à violência, o documento defende a necessidade de priorizar que a análise desses casos atinja revisão humana de modo célere, além da necessidade de punições severas para abusos reiterados.

 

Ressalta ainda a importância de atuação global com padrões adequados. "É importante que as empresas não negligenciem as dezenas de eleições que ocorrem em países ou mercados considerados menos lucrativos, porque é neles onde o impacto nos direitos humanos de não implementar tais padrões pode ser mais severo", afirma.

 

Também afirma que é preciso ter padrões claros para lidar com deepfakes e outros conteúdos gerados por inteligência artificial, adicionando que é necessário ter em mente o objetivo final dessas regras, dado que o ritmo acelerado das mudanças tecnológicas acaba fazendo com que as políticas possam se tornar obsoletas rapidamente.

 

Ao longo do relatório, ao rememorar algumas de suas decisões, o conselho reforça o que vê como a importância de proteger a liberdade de expressão e o discurso político, defendendo regras claras. Diz ainda que as plataformas têm que se salvaguardar contra o perigo de permitir que governos utilizem desinformação ou outras razões vagas para suprimir críticas.

 

O conselho aponta ainda a importância de transparência por parte das empresas, tanto sobre suas medidas quanto sobre seus erros, além da necessidade de atuação para evitar a ocorrência de campanhas coordenadas de desinformação ou de incitação a violência para minar a democracia.

 

"As empresas de mídia social deveriam melhorar suas decisões sobre design [da plataforma] e regras para garantir que narrativas de desinformação não sejam amplificadas", diz.