Responsabilidade e Transparência na prática: aprimoramentos necessários ao PL 2630/2020

O objetivo deste segundo artigo da série sobre o PL 2630/2020 é apresentar os pontos de destaque deste projeto de lei sobre a responsabilização das plataformas, suas convergências com a literatura e princípios internacionais sobre o tema.

Law
16/06/2021
Yasmin Curzi de Mendonça
Clara Leitão de Almeida
Henrique Torres
Leandro Rebelo
Raphael Santana

Seguindo as tendências internacionais de regulação de plataformas digitais, principalmente sobre moderação de conteúdo online, têm surgido no Brasil propostas legislativas que buscam aumentar a responsabilidade das plataformas e os direitos dos usuários. O Projeto de Lei nº 2.630/2020, PL da Responsabilidade e Transparência das Plataformas, mais comumente conhecido como "PL das Fake News", surge, justamente, com o intuito de aumentar a transparência e definir deveres aos intermediários, dentre estes o devido processo para os usuários questionarem as decisões das plataformas. O objetivo deste segundo artigo da série sobre o PL 2630/2020 é apresentar os pontos de destaque deste projeto de lei sobre a responsabilização das plataformas, suas convergências com a literatura e princípios internacionais sobre o tema, bem como as possibilidades de melhoria para a aproximação com o nobre objetivo pretendido: assegurar que direitos dos usuários possam ser resguardados e que medidas de transparência sejam materializadas.

Plataformas digitais são atores privados, mas que assumiram a função de mediadores da comunicação pública. Apesar de não possuírem responsabilidade pela elaboração do conteúdo postado – como muito bem logrou em definir o artigo 19 do Marco Civil[1] –, é por meio delas que conteúdos são disseminados. Sendo organismos privados, têm direito de elaborar regras de conduta próprias nos chamados termos de serviços e políticas de comunidade (poder quasi-legislativo) e também de aplicação dessas próprias regras em seus ambientes (poder quasi-judicial e quasi-executivo). Nesse sentido, plataformas são entidades autorreguladas – o que performam a partir de técnicas de moderação de conteúdo online[2]. Há consenso na literatura de que a atividade é inerente à existência das plataformas[3], bem como também é desejada por usuários que procuram a resolução de conflitos a partir destes mecanismos[4].

No entanto, a moderação de conteúdo não está livre de erros. Exercida por humanos e por sistemas automatizados de inteligência artificial, já foram relatados[5] diversos casos de remoção de conteúdos lícitos, o que causa implicações bastante graves para a liberdade de expressão e de informação de seus usuários. E não apenas a remoção de conteúdos lícitos tem sido alvo de críticas. A ordenação de feeds de notícia pelos algoritmos operantes nas plataformas, com maior destaque a conteúdos impulsionados mediante pagamento, bem como destaque de conteúdos que possuem maior capacidade de produzir "engajamento" e permanência do usuário na plataforma, a partir de técnicas de coleta de dados para recomendação direcionada (ou "recomendação algorítmica"), passou a ser uma atividade considerada nociva, tanto para as liberdades de expressão e informação, como para os direitos de privacidade dos usuários.

A partir do reconhecimento do papel das plataformas na difusão de conteúdos maliciosos, como desinformação e discurso de ódio – sobretudo a partir de escândalos públicos como no caso do Brexit e da Cambridge Analytica –, passaram a ser desenhados documentos principiológicos e legislações em certos países (como o Network Enforcement Act, ou NetzDG, na Alemanha) para exigir maior transparência da atividade das plataformas na coordenação discursiva, bem como cobranças para que mecanismos de apelação e justificação de decisões fossem criados pelas plataformas para assegurar devido processo aos usuários. Como dito em artigo anterior, são relevantes as iniciativas de recomendação por organizações civis e acadêmicas, como os Princípios de Manila, Princípios de Santa Clara e Change the Terms – todas com o objetivo de chamar atenção para caminhos de concretização de transparência e aprimoramentos em relação aos direitos dos usuários.

O Marco Civil da Internet, elaborado em 2012 e em vigência desde 2014, não faz previsões claras sobre deveres de prestação de contas e responsabilização das plataformas, uma vez que, àquela época, essa não era a prioridade da regulação – mas sim, a garantia de neutralidade da rede e a preservação da liberdade de comunicação. Há certa defasagem no Marco Civil da Internet em relação à complexificação das atividades das plataformas neste novo cenário – o que fica constatado pelo reconhecimento de que legislações, como o PL 2630/2020, sejam elaboradas para definir regras de transparência e responsabilidade para as companhias.

Em maio de 2021, foi tornada pública uma minuta de Decreto elaborada pelo Governo Federal, que visa alterar o Decreto nº 8.771/2016, que regulamenta o Marco Civil da Internet[6]. O decreto vem com um questionamento válido sobre a falta de previsões claras de direitos dos usuários acerca da moderação de conteúdo. No entanto, sua proposição – além de atropelar a discussão de um tema tão relevante na instituição apropriada para a deliberação pública, isto é, o Poder Legislativo – impede que as plataformas moderem quaisquer conteúdos sem ordem judicial, o que viola a liberdade comercial das plataformas e poderia engendrar ambientes online ainda mais ingovernáveis, com aumento não apenas de desinformação e discurso de ódio, mas com intensificação de fraudes comerciais e  propagação de conteúdos impróprios.

A discussão sobre as regras de responsabilidade para as plataformas é complexa e precisa ser informada pela sociedade civil. Recentemente, há movimentos na Câmara para que seja aberta uma nova consulta pública para discussão do PL 2630/2020, o que denota a premente necessidade de coleta de mais informações para a melhoria da técnica legislativa. Como dito no artigo anterior, a versão apresentada à Câmara pelo Senado já apresentava inovações importantes, dentre elas, a exigência de estabelecimento de devido processo para moderação de conteúdo, e obrigações específicas para aumentar transparência e justificação das decisões. Temos como intenção, neste artigo, trazer alguns pontos de relevância para a informação pública neste debate.

  1. Transparência

O PL 2630/2020, em sua redação atual, exige a produção de relatórios trimestrais de transparência, feitos públicos em até 30 dias após o fim do trimestre, que devem conter informações como: (a) número total de usuários brasileiros com acesso aos serviços das plataformas (art. 13, I); (b) número total de medidas de moderação de contas e conteúdos adotadas em razão do cumprimento dos termos de uso privado dos provedores de redes sociais, em razão do cumprimento da Lei e em razão do cumprimento de ordens judiciais (art. 13, II, III e IV); com (c) especificação das motivações, da metodologia utilizada na detecção da irregularidade e da medida adotada. Os documentos também devem indicar o número total de contas automatizadas detectadas e a metodologia para a detecção, as redes de distribuição, e conteúdos impulsionados e publicitários.

Uma crítica que se pode fazer à proposta legislativa é em relação à possível forma genérica que os relatórios poderão tomar. Tal dever procedimental parece inspirar-se diretamente na NetzDG, que também obriga a realização de relatórios neste mesmo sentido. Como pesquisas feitas com base nos resultados trazidos pela legislação alemã observam, a consequência das exigências da lei foi a formulação de relatórios de transparência também genéricos[7] e não uniformes. O PL requisita, principalmente, a publicação de dados numéricos sobre a quantidade total de técnicas de moderação de conteúdo aplicadas. Isso é problemático porque tais dados tendem a mostrar apenas as medidas tomadas pelas plataformas, sem identificar possíveis vieses ou erros na moderação – e sem fomentar que tal curadoria seja realizada. A exigência de dados numéricos, portanto, não necessariamente torna as plataformas mais transparentes, uma vez que não são suficientes para explicar ao destinatário daquelas informações como se deu o processo de tomada de decisão da moderação de conteúdo realizada. Isso significa que, na prática, não há maior prestação de contas ou possibilidade de responsabilização da plataforma. Assim, é preciso questionar a que propósito servem informações específicas[8]. Ademais, não há explicação plausível para a cobrança dos relatórios ser realizada trimestralmente – sem sequer considerar a estrutura da plataforma e sua capacidade técnica para tal. Tal cobrança pode ter efeitos bastante negativos de barrar a entrada de novos atores no mercado, com efeitos ainda mais perversos à competição.

Outro problema neste artigo é a falta de definição de metodologia para elaboração e apresentação dos dados de seus relatórios – o que pode dificultar a possibilidade de comparação entre relatórios (1) de diferentes plataformas que possuam funções semelhantes, como Twitter e Facebook, ou (2) da mesma plataforma em relação a períodos diferentes. Isso também dificulta a análise das consequências da legislação, ou até dos próprios termos de uso das plataformas na tomada de decisão da moderação de conteúdo. Uma correção pequena, porém necessária, para o aprimoramento desta regra, nesse sentido, seria que a autoridade reguladora, isto é, o Conselho de Transparência e Responsabilidade na Internet (designado pelo art. 26 do PL 2630/2020) fosse responsável por elaborar modelos de formulários a serem seguidos pelas plataformas.

O PL pareceu também não levar em consideração as consequências da elaboração desses relatórios para o trabalho de diferentes plataformas, como, por exemplo, plataformas que sejam criptografadas. Como será possível para elas apresentarem os dados exigidos? Nessa mesma linha, também não há esclarecimento acerca de como as plataformas devem divulgar esses dados sem que haja violação à Lei Geral de Proteção de Dados Pessoais. Nesse sentido, o PL deve incorporar a seu texto a legislação referida para assegurar que o tratamento de dados seja devidamente realizado pelas plataformas na publicização dos relatórios.

Outras previsões de transparência do PL tratam sobre conteúdos patrocinados. A publicidade é definida, no art. 5º, VI, como "mensagens publicitárias veiculadas em troca de pagamento pecuniário ou valor estimável em dinheiro para as empresas enquadradas nesta Lei". Os artigos 14 a 17 trazem exigências sobre rotulação de conteúdos patrocinados, para que seja identificado como conteúdo pago ou promovido, e seja também identificado o patrocinador, além de demandas específicas para conteúdos patrocinados em período eleitoral.

A definição de conteúdo patrocinado e as exigências de transparência incluem também conteúdos que não têm relação com propagandas políticas, como no art. 17, que define a obrigação de identificação de todos os usuários que veiculam publicidade, alcançando postagens de influenciadores digitais e de pequenos negócios. Tal previsão pode gerar barreira para a atuação e estabelecimento de pequenos comércios nos marketplaces das plataformas, tendo em vista o processo burocrático para a retirada de documentos no país, gerando impactos econômicos bastante negativos.

O ponto de maior crítica aos artigos que preveem regras de transparência para a publicidade reside no fato de que o direcionamento e a recomendação de conteúdo pelas plataformas, seja ele patrocinado ou não, é feita por sistemas algorítmicos automatizados. O PL não endereça a falta de transparência sobre sistemas algorítmicos, nem mesmo a dificuldade de se justificar decisões tomadas por algoritmos, quando faz as exigências de exposição de motivação da moderação na elaboração dos relatórios de transparência.

  1. Devido Processo

Um importante avanço em relação aos direitos dos usuários na versão atual do PL 2630/2020 é a criação de previsão para que o usuário possa recorrer da decisão de moderação da plataforma (art. 12, §3˚), tendo em vista que as decisões de moderação de conteúdo não estão livres de erros. Ao lidar com uma enorme quantidade diária de conteúdos postados por seus usuários, cada vez mais têm sido utilizados sistemas de inteligência artificial para a moderação automatizada. Tais mecanismos, no entanto, operam de forma bastante rudimentar e precária em relação ao reconhecimento de contextos de interações sociais. Além disso, sistemas decisionais automatizados são desenvolvidos e treinados, em sua grande maioria, em línguas anglófonas, o que causa um descompasso no aprendizado desses algoritmos em sua atuação em países não anglófonos. Nesse sentido, tais sistemas acabam por não considerar danosos conteúdos que deveriam ser removidos do ar, de acordo com suas políticas ou com a legislação (falsos negativos), ou por considerar danosos conteúdos que não deveriam ser removidos (falsos positivos). A importância de mecanismos de revisão internos às plataformas é, portanto, fundamental para que sejam oferecidas oportunidades de esclarecimentos aos usuários.

A redação dada ao art. 12 na versão do PL 2630/2020 aprovada no Senado, previa a necessidade de "um mecanismo acessível e em destaque, disponível por no mínimo três meses após a decisão, para que o usuário criador ou compartilhador do conteúdo, bem como o usuário autor de eventual denúncia possa recorrer da decisão". Na versão que corre na Câmara, o dispositivo, no entanto, foi retirado, restando a previsão genérica do §3 ̊ em que "deve ser garantido pelo provedor o direito de o usuário recorrer da indisponibilização de conteúdos e contas". Enquanto a redação anterior apresentava de forma mais detalhada a previsão de funcionamento de mecanismo de denúncia – de conteúdos próprios retirados, ou de conteúdos denunciados pelo usuário –, a versão atual não traz obrigação direta de criação de mecanismo para cumprir esta função, mas apenas a previsão de "direito de recurso" quando o usuário tiver sua própria conta ou conteúdo indisponível. Perde-se, portanto (1) a garantia de que um mecanismo acessível e de destaque seja criado; (2) a previsão de detalhamento temporal para a revisão ser realizada; (3) a possibilidade de transparência de denúncias de conteúdos ilícitos por terceiros – até mesmo que podem afetar diretamente o usuário autor da denúncia. 

É importante ressaltar a necessidade de formulação de regras específicas sobre como deve se dar o estabelecimento desses mecanismos de apelação, além da justificativa das decisões, para que os usuários possam efetivamente exercer seus direitos de recurso das decisões e não se encontrem presos em um limbo de assimetria informacional. Para permitir a fiscalização sobre o cumprimento desse dever, se faz necessária a previsão de regras procedimentais, para produzir o enforcement dos princípios de devido processo legal[9].

Nesse sentido, o PL poderia ir além de previsões gerais e prever que remoções de conteúdo sejam realizadas de forma cognoscível aos usuários – seguindo os avanços trazidos pelo Código de Defesa do Consumidor, para tratamento diferenciado e correção de assimetrias entre prestadores de serviços e consumidores, e a Lei Geral de Proteção de Dados[10], no que tange à possibilidade de revisão humana para decisões por sistemas automatizados. Ainda, a legislação poderia prever que os canais de denúncia e de reclamação de decisões sejam também de fácil acesso aos usuários, bem como uma previsão sobre a necessidade de que a plataforma determine prazos claros para respostas aos usuários em seus termos de serviço. Dessa forma, ainda que as decisões de moderação sejam realizadas de forma automatizada, há possibilidade de maior legitimação das decisões perante a comunidade e consequente diminuição do sentimento de arbitrariedade decisional – o que é, inclusive, desejável para as plataformas.

Para que a regulação seja efetiva, o legislador deve sempre tentar compreender aquilo que se está tentando regular. O PL 2630/2020 mostra que há uma preocupação com temas importantes como o aumento da responsabilidade das plataformas e dos direitos dos usuários, através de exigências de maior transparência e de mecanismos de contestação das decisões. Contudo, é necessário que a legislação leve em consideração quais as consequências dessas previsões para a realidade que está tentando alterar. São necessárias previsões mais específicas dos deveres das plataformas, para que os direitos dos usuários realmente sejam garantidos, as obrigações das plataformas sejam, na prática, observadas, e a Administração Pública tenha critérios para fiscalizar as plataformas.

 


[1] O artigo 19 do Marco Civil da Internet define aos intermediários uma imunidade condicional em relação ao conteúdo postado por terceiros. Isto é, não são responsáveis diretamente – uma acertada escolha legislativa que fortalece a liberdade de expressão –, mas apenas se notificadas judicialmente, a partir do observado na determinação legal, devem remover o conteúdo especificado na ordem judicial.

[2] KLONICK, Kate. The New Governors: The People, Rules, and Processes Governing Online Speech. Harvard Law Review. N. 131, 2017. Disponível em: https://ssrn.com/abstract=2937985. Acesso em 3 jun. 2021.

[3] Grimmelmann, James, ‘The Virtues of Moderation’ (2015) 17 Yale Journal of Law & Technology 42.

[4] Citron, D. & Jurecic, Q (2018). ‘Platform Justice: Content Moderation at an Inflection Point’, Aegis Series Paper No. 1811, available at < https://www.lawfareblog.com/platform-justice-content-moderation-inflecti....

[5] COBBE, Jennifer. Algorithmic Censorship by Social Platforms: Power and Resistance. Philosophy & Technology, p. 1-28, 2020;

[6] Disponível em: <https://www.internetlab.org.br/wp-content/uploads/2021/05/SEI_53115.0127.... Acesso 9 jun. 2021.

[7] HELDT, Amélie Pia. Reading between the lines and the numbers: an analysis of the first NetzDG reports. Internet Policy Review, v. 8, n. 2, 2019.

[8] ANANNY, Mike; CRAWFORD, Kate. Seeing without knowing: Limitations of the transparency ideal and its application to algorithmic accountability. New Media & Society 20:3, 2016. DOI: 10.1177/1461444816676645 .

[9] VAN LOO, Rory. Federal Rules of Platform Procedure. University of Chicago Law Review, Forthcoming, 2020.

[10] A Lei Geral de Proteção de Dados, reconhecendo que decisões tomadas por sistemas algorítmicos podem ser injustas traz, em seu art. 20, o direito de o titular de dados de "solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses". A previsão da revisão humana de decisões tomadas por sistemas algorítmicos tem ganhado força, e poderia também estar presente no PL se referindo à revisão de decisões de moderação automatizadas.

*As opiniões expressas neste artigo são de responsabilidade exclusiva do(s) autor(es), não refletindo necessariamente a posição institucional da FGV.

Our website collects information about your device and browsing activity through the use of cookies seeking to allow features such as: improving the technical functioning of web pages, measuring the diffusion of the website and offering relevant products and services through personal advertisement. To find out more about the information and cookies we collect, visit our Cookie Policy and our Privacy Policy (available soon in English).