Por onde anda o “PL das Fake News”? É necessário focar no aprimoramento dos deveres procedimentais, respeitando o regime de responsabilização adotado pelo Marco Civil da Internet

Precisamos não só corrigir esses e outros erros do projeto como também aprimorar seus pontos de acerto, especialmente os deveres procedimentais.

Direito
01/06/2021
Julia Iunes Monteiro
Natália de Macedo Couto

Há mais de um ano, foi protocolado no Congresso Nacional o projeto que visa instituir a Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet (Projeto de Lei 2630/2020), popularmente conhecido como “PL das Fake News”. Já abordamos em artigo anterior que, apesar de existirem outras dezenas de projetos propondo a regulação de redes sociais, a atenção sobre este em específico se justifica porque, dentre outros fatores, o PL inova ao estabelecer a necessidade de um devido processo para a moderação de conteúdo online, ao indicar deveres de transparência, justificação e mecanismos de contestação das decisões tomadas pelas plataformas. 

No entanto, o projeto tem chamado atenção do público e da comunidade acadêmica muito mais por seus erros do que por seus acertos. Apesar da modificação de diversos pontos problemáticos que constavam na redação original, como, por exemplo, a exclusão de abordagens criminais e a reformulação do conceito de “conta inautêntica”, o texto aprovado pelo Senado ainda está longe de ser o que queremos para a internet brasileira. Não à toa, foi criticado por dezenas de centros de pesquisa, além de órgãos nacionais e internacionais, como a ONU e a OEA, em carta direcionada ao Itamaraty.

Na Câmara, houve a formação de um grupo de trabalho informal para deliberar sobre o tema, que resultou na apresentação de um substitutivo pelo Deputado Orlando Silva, o qual, no entanto, não foi apoiado pelos demais parlamentares que compunham a equipe, uma vez que se distanciou das discussões do grupo. Também foram aprovados requerimentos para a realização de audiências públicas, em data ainda a ser marcada. A expectativa é de que outro texto seja apresentado, mas, por enquanto, a versão oficial do projeto aprovada pelo Senado ainda aposta na identificação massiva dos usuários, inclusive por meio da apresentação de documento oficial de identidade (art. 5º, I; art. 7º) e na rastreabilidade de conversas em aplicativos de mensagens (art. 10), podendo resultar em um ambiente de vigilantismo e censura nas redes. Precisamos não só corrigir esses e outros erros do projeto como também aprimorar seus pontos de acerto, especialmente os deveres procedimentais.

A regra de ouro é preservar o exercício legítimo do anonimato e o regime de responsabilidade adotado pelo Marco Civil da Internet

Muito embora o conceito de conta inautêntica tenha sido reformulado pela redação oficial do projeto (art. 5º, inc. II) no intuito de resguardar o uso do nome social, de pseudônimos e o exercício do anonimato, é difícil afirmar que isso ocorrerá na prática, já que a própria lei acaba estimulando as plataformas a realizarem a remoção excessiva e indiscriminada de contas. Por que isso acontece?

De acordo com a versão aprovada pelo Senado, as plataformas continuam tendo o dever de “vedar o funcionamento de contas inautênticas” (art. 6º, inc. I), sob pena de serem multadas (art. 31, II). Isto significa que precisarão desenvolver seus próprios parâmetros para identificar as tais “contas inautênticas” que, nos termos do projeto, são aquelas que visam “assumir identidade de terceiros para enganar o público” (art. 5º, inc. II). Devido à imprecisão do conceito, fica difícil compreender, no entanto, o que efetivamente a lei quis coibir. 

Mesmo sem uma definição clara do objetivo perseguido pela lei, uma coisa é certa: as plataformas poderão ser responsabilizadas, independentemente de notificação judicial, caso falhem nesse dever de monitoramento. A consequência prática dessa dinâmica é um cenário de grande insegurança jurídica tanto para os usuários (que correm o risco de ter sua conta suspensa), como para as empresas (que precisarão se envolver numa verdadeira guerra contra as tais “contas inautênticas”, sem saber ao certo como identificar o “inimigo” a ser perseguido). Por meio de que procedimento seria possível descobrir o propósito por trás da criação das contas? O que significa “enganar o público”? E como diferenciar essas contas “enganosas” daquelas que, legitimamente, fazem uso de pseudônimos, de nome social ou mesmo do anonimato, categorias teoricamente protegidas pelo projeto?

Com o temor de serem responsabilizadas por negligência, a tendência é de que, por via das dúvidas, as plataformas adotem uma postura de remoção excessiva de todas as contas que apresentarem qualquer sinal de “inautenticidade” - seja lá qual significado esse termo possa assumir. E é dessa maneira que o PL das Fake News subverte o regime de responsabilidade implementado pelo artigo 19 do Marco Civil da Internet. No fundo, as plataformas serão obrigadas a fazer uma análise de mérito subjetiva das contas e conteúdos postados, sendo responsabilizadas, sem notificação judicial prévia, caso “falhem” em sua avaliação.

As plataformas não devem ser responsáveis pelos conteúdos criados pelos usuários, mas podem e devem ser responsabilizadas pela infraestrutura comunicativa que administram

Visando proteger a liberdade de expressão e evitar a censura, o Marco Civil garante que, como regra, as plataformas não são responsabilizadas pelos conteúdos postados pelos usuários. Mas disse pouco sobre os deveres que as plataformas devem assumir na posição de administradoras da infraestrutura comunicativa e, especialmente, quais são suas responsabilidades ao lidar com problemas sistêmicos, como desinformação, discurso de ódio e manipulação eleitoral, preocupações que hoje são muito maiores do que sequer se imaginava na época da elaboração do Marco Civil.

Hoje já sabemos que se, por um lado, as plataformas atuam ativamente para remover conteúdos nocivos (inclusive para garantir a permanência dos usuários na rede e seus interesses econômicos), por outro lado, o seu próprio modelo de negócios pode fomentar os problemas sistêmicos que elas buscam remediar. Técnicas de recomendação e perfilhamento são comumente adotadas para direcionar conteúdos, podendo aprofundar a criação de “filtros bolha”, câmaras de eco e polarização política, distorcendo a percepção do usuário sobre a realidade.

O movimento Stop Hate for Profit denunciou como a  política de anúncios do Facebook e Instagram estaria promovendo discursos racistas, misóginos e de supremacia branca; o escândalo da Cambridge Analytica demonstrou como os dados de usuários foram utilizados para manipulação política, enquanto que, atualmente, redes de desinformação se organizam para distorcer dados científicos durante a pandemia.  

Episódios como esses demonstram que, apesar das plataformas não serem as criadoras dos conteúdos, suas políticas de moderação exercem influência decisiva sobre o tipo de informação a ser priorizada, assim como aquelas que serão objeto de formas, até veladas, de censura (como no caso do shadowban), podendo impactar desde a rentabilidade de negócios, até mesmo questões de saúde pública e a repercussão de manifestações políticas. São processos que vão muito além da mera remoção de um conteúdo específico e passam ao largo de qualquer tipo de controle, seja por parte do Judiciário ou de qualquer outra instituição no Brasil.

Rumo a um devido processo para a moderação de conteúdo

O estabelecimento de um devido processo para a moderação de conteúdo já é adotado por legislações estrangeiras, como a NetzDG na Alemanha, e recomendado por iniciativas internacionais, como os Princípios de Santa Clara, Manila Principles e Change the Terms. Entre os principais pontos abordados nestes documentos, estão i) a exigência de relatórios de transparência elaborados pelas plataformas, informando o número de postagens removidas e contas suspensas por violação aos termos de uso; ii) orientações claras sobre as regras da comunidade, com o oferecimento de justificativas aos usuários sobre o porquê da remoção, suspensão ou outra técnica de moderação efetuada; e iii) a possibilidade de que os usuários possam recorrer dessas decisões.

É importante observar que a implementação de deveres procedimentais deve ter como objetivo adicionar uma camada extra de accountability às plataformas, mas não subverter o regime de responsabilização por notificação judicial já existente. Esse alerta também é feito pelo Manila Principles, ao indicar que “os intermediários nunca devem ser responsabilizados objetivamente por hospedar conteúdos ilegais de terceiros” e que as leis que disponham sobre responsabilidade dos intermediários devem ser “precisas, claras e acessíveis”.

Esse é um dos erros cometidos pelo PL das Fake News ao responsabilizar as plataformas caso deixem de remover “contas inautênticas” e também igualmente cometido pela lei alemã, ao responsabilizar as plataformas caso deixem de remover conteúdos “manifestamente ilegais”, no prazo exíguo de 24h. Diversos críticos preocupam-se com as consequências da referida lei para a liberdade de expressão, afirmando que, da forma imprecisa com a qual a obrigação foi imposta, pode encorajar a remoção excessiva e ilegítima de conteúdos legais, especialmente levando-se em consideração o escasso tempo para avaliação das reclamações e o alto valor das multas. É essencial que o PL das Fake News aprenda com a experiência estrangeira para não repetir os mesmos erros.

Grandes poderes, grandes responsabilidades: precisamos falar sobre os deveres procedimentais

Pesquisas demonstram que, em regra, as plataformas falham sistematicamente em justificar suas decisões de moderação. Os usuários ficam em dúvida sobre como as regras são criadas e como potenciais violações aos termos de uso são identificadas: a reclamação foi feita por um usuário, por um órgão do governo, ou será que o conteúdo foi identificado como ofensivo por algum moderador ou algoritmo? Além de não receberem explicações suficientes sobre a origem da reclamação, muitos usuários também ficam sem compreender qual teria sido exatamente o comportamento que desencadeou uma sanção por parte da plataforma: qual regra do termo de uso foi violada? Por que essa postagem foi considerada como uma violação a essa regra?

Se as plataformas se tornaram os “novos governantes da liberdade de expressão”, é necessário que seus processos decisórios sejam submetidos a limites próprios do constitucionalismo. Elas possuem liberdade para elaborar seus termos de uso, executar medidas de moderação (tanto por humanos quanto por ferramentas automatizadas) e impulsionar anúncios, mas agora precisam prestar contas sobre como realizam esse processo, porque determinada decisão foi tomada naquele caso em específico e ofertar oportunidades para os usuários questionarem suas decisões. O PL acerta ao buscar os parâmetros iniciais para o cumprimento dessas obrigações, que, no entanto, ainda precisam ser bastante aprimorados. 

Deveres de Transparência, Apelação e Justificação das decisões são consensos que merecem ser aprimorados

A demanda por transparência e justificação das decisões não pode ser um fim em si mesmo e, para que seja útil, precisa ser um mecanismo viabilizador da prestação de contas pelas plataformas e não apenas uma vitrine cujo único propósito é expor informações. Algumas pesquisas que avaliam a implementação da NetzDG na Alemanha já demonstraram o “baixo valor informativo” dos relatórios de transparência, que, da maneira como aplicados, não estariam levando a uma melhor compreensão das decisões tomadas pelas plataformas.

O estabelecimento de deveres de transparência e devido processo para a moderação de conteúdo são comumente retratados como pontos de consenso por aqueles que avaliam o PL das Fake News, mas merecem ser melhor explorados, em atendimento às recomendações acadêmicas e aos documentos internacionais sobre o tema. Os deveres procedimentais indicados no PL são suficientes? Em que medida podem ser aprimorados para viabilizar uma efetiva fiscalização? Os próximos artigos a serem publicados neste portal buscam trazer considerações a esse respeito.

* A série de artigos é uma iniciativa do Grupo de Pesquisa em Moderação de Conteúdo Online do Centro de Tecnologia e Sociedade (CTS) da FGV Direito-Rio.

 

*As opiniões expressas neste artigo são de responsabilidade exclusiva do(s) autor(es), não refletindo necessariamente a posição institucional da FGV.

Autor(es)

  • Julia Iunes Monteiro

    Pesquisadora no Centro de Tecnologia e Sociedade da FGV Direito Rio. Doutoranda em Teoria do Estado e Direito Constitucional na PUC-Rio. Mestre em Direito Público pela Universidade do Estado do Rio de Janeiro - UERJ. Graduada em Direito pela Universidade Federal do Rio de Janeiro - UFRJ.

  • Natália de Macedo Couto

    Mestranda em Direito da Regulação – FGV Direito Rio. Pesquisadora no Grupo de Pesquisa em Moderação de Conteúdo Online do Centro de Tecnologia e Sociedade da FGV Direito Rio. Assistente de Ensino nos cursos de LLM da FGV Direito Rio. Especialização em Compliance. Advogada no escritório MF Assessoria Jurídica Empresarial. 

Artigos relacionados

Últimos artigos

Nosso website coleta informações do seu dispositivo e da sua navegação por meio de cookies para permitir funcionalidades como: melhorar o funcionamento técnico das páginas, mensurar a audiência do website e oferecer produtos e serviços relevantes por meio de anúncios personalizados. Para saber mais sobre as informações e cookies que coletamos, acesse a nossa Política de Cookies e a nossa Política de Privacidade.