Reunião do Conselho de Comunicação Social para discutir fake news, já em 2017; imagem meramente ilustrativa -  (crédito: Edilson Rodrigues/Agência Senado)

Reunião do Conselho de Comunicação Social para discutir fake news, já em 2017; imagem meramente ilustrativa

crédito: Edilson Rodrigues/Agência Senado

Ocorreu nesta semana em São Paulo, entre os dias 29 e 30/04, o NET mundial+10, encontro multissetorial global sobre o futuro da governança da Internet. O evento retoma os objetivos do NET mundial, realizado em 2014, que buscou o desenvolvimento de propostas para o aprimoramento e a implementação de uma governança do mundo digital.

 

Em 2014, tivemos por aqui a aprovação do Marco Civil da Internet (MCI) que, no último dia 23/04 completou 10 anos de vigência.

 

Considerado na época inovador, abrangente e complexo, ele implementou princípios que garantem o funcionamento da internet como conhecemos hoje. Um dos mais importantes é a neutralidade de rede, regra que garante a todos os usuários condições iguais de acesso É uma regra direcionada, às operadoras de telecomunicações que não podem impor distinções no tráfego de dados em razão de conteúdo, origem ou outros critérios.

 

 

Outro avanço fundamental trazido com o MCI refere-se às regras sobre proteção de dados pessoais que foram posteriormente estendidas pela Lei Geral de Proteção de Dados (LGPD).

 

Por outro lado, hoje está claro que o rápido avanço tecnológico e a mudança da dinâmica das redes sociais colocam em xeque a eficácia de algumas de suas normas.

 

Pode-se dizer que o maior alvo dos debates é o seu artigo 19 da cuja constitucionalidade está sendo questionada no Supremo Tribunal Federal (STF). Segundo a norma, “com o intuito de assegurar a liberdade de expressão e impedir a censura um provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para retirá-lo”.

 

Como se sabe, os provedores de aplicação de internet tornaram-se instrumento para o abuso reiterado do direito de liberdade de expressão, sendo palco de discursos de ódio, ameaças, disseminação de desinformação entre outras condutas ilícitas.

 

Passou-se, então, a se exigir uma moderação prévia dos provedores. Diante da resistência de alguns deles, o judiciário interveio com medidas preventivas como aquelas tomadas para garantir a regularidade das eleições de 2022. O TSE, por exemplo, a dez dias do segundo, aprovou uma regra que dava à corte a possibilidade de retirar conteúdo da internet, independente da provocação dos partidos ou do Ministério Público.


Passado o pleito eleitoral, o Tribunal e o STF mantiveram essa postura proativa, que tem sido objeto de críticas. Elas vêm, em sua maior parte, de representantes da extrema-direita que consideram a liberdade de expressão com um direito absoluto. O discurso ganhou força após as publicações de Elon Musk criticando a atuação do Ministro Alexandre de Moraes.



Diante da repercussão do caso, alguns ministros do STF reforçaram as cobranças para que o Congresso regulamente a matéria com a votação chamado PL das Fake News.

 

Já o Ministro Dias Toffoli sinalizou que deve pautar em breve o julgamento da ação que contesta a constitucionalidade do artigo 19 do Marco Civil da Internet.

 

Como o PL das Fake News acabou sendo engavetado, pelo presidente da Câmara, é provável que o Supremo se manifeste sobre a responsabilidade das plataformas antes de uma regulação pelo Congresso.

 

Acontece que essa discussão ultrapassa a análise do Marco Civil da Internet, pois ele trata da regulação geral da internet e não da regulação específica das plataformas, cujo modelo de negócio tem refletido no comportamento das pessoas e na democracia.

 

O poder legislativo deve então, criar normas e diretrizes que possam garantir a conciliação de valores e prerrogativas como liberdade de expressão, dignidade humana e devido processo legal.

 

O ideal é que a evolução desta estrutura regulatória conte com a participação das plataformas, por meio da adoção conjunta de mecanismos de governança.

 

A Meta, por exemplo, mantém, desde 2020, um conselho de supervisão que é um órgão independente criado para revisar casos de moderação de conteúdo em suas plataformas (Facebook, Instagram e Threads). Ele também sugere mudanças nas práticas da empresa.

 

O conselho recebeu críticas por anunciar com atraso a decisão de retirar um vídeo que precedeu os ataques golpistas de 08 de janeiro de 2023.


Ainda assim, trata-se de uma iniciativa que pode ser desenvolvida em conjunto com órgãos do governo e da sociedade civil, com a criação de regras e incentivos para que as plataformas possam conter a produção de conteúdos sem ferir a liberdade de expressão.


Não é tarefa fácil, em razão dos modelos de negócios das Big Techs e do poder que decorre do controle que elas têm no mercado.


Mas o Brasil já foi destaque na criação de normas e soluções para uma regulação justa e inclusiva do tema, como ocorreu com a criação do Marco Civil da Internet. Vale o esforço para a retomada desse protagonismo.

 

O autor desta coluna é Advogado, Especialista e Mestre em Direito Empresarial. É sócio do escritório Ribeiro Rodrigues Advocacia e da Tríplice Marcas e Patentes


Sugestões e dúvidas podem ser enviadas para o email lfeliperradv@gmail.com