Quatro cautelas para o julgamento do artigo 19
No final de 2024, o Supremo Tribunal Federal deflagrou o julgamento que vai redefinir o equilíbrio entre liberdade e responsabilidade em ambientes digitais. Em pauta, a constitucionalidade do artigo 19 do Marco Civil da Internet, segundo o qual provedores de aplicações, a exemplo das redes sociais, só respondem por danos decorrentes de conteúdos de terceiros se desobedecerem a ordens judiciais de remoção.
Os Ministros Dias Toffoli, Luiz Fux e Luís Roberto Barroso apresentaram versões preliminares de seus votos, revelando não apenas fissuras na interpretação do artigo 19, mas diagnósticos alarmantes sobre o comportamento das plataformas diante de problemas emergentes. Suas ponderações convergem para uma pergunta central: até que ponto big techs que rivalizam com a soberania de Estados podem se esquivar de agir diante de danos concretos ao tecido social e ao bom funcionamento da democracia?
Para que a resposta dada a essa pergunta fundamental não se perca no desentendimento de suas nuances, é fundamental que o STF se pronuncie de maneira clara sobre quatro questões situadas nas fronteiras do direito privado:
- É possível imputar responsabilidade objetiva por danos decorrentes do compartilhamento de conteúdos de terceiros sem previsão legal específica?
- A ideia de impulsionamento de conteúdo pode servir de critério para aplicação de regime alternativo ao do artigo 19 do Marco Civil da Internet?
- Existe fundamento para a atribuição, aos provedores de aplicações, de um dever de controle e prestação de informações específicas de seus usuários?
- O que conta como risco sistêmico no contexto das atividades desempenhadas pelos provedores de aplicações? Quais as suas implicações jurídicas?
A essas questões se somam outras, de caráter processual e metodológico, que não serão discutidas aqui, mas merecem menção específica: os objetos das ações de origem dos recursos extraordinários afetados ao julgamento da constitucionalidade do artigo 19 delimitam o alcance da decisão que será proferida pelo STF? A correção das referências empíricas dos votos afeta a validade de suas conclusões, particularmente no que toca aos impactos do artigo 19 sobre os índices de judicialização?
1. Responsabilidade objetiva
Diante da premissa de inconstitucionalidade do artigo 19, o Ministro Dias Toffoli propõe que “o provedor de aplicações que aufere vantagem econômica também deve assumir, em determinadas situações, os riscos e encargos daí decorrentes perante terceiros”. Trata-se, em suas palavras, de “opção pela responsabilidade objetiva”, que, argumenta, além de encontrar fundamento “na cláusula geral de responsabilidade contida no art. 927, parágrafo único, do CC”, também se justifica pelo fato de que “a exigência de comprovação de que o provedor de aplicações teria incorrido dolo ou culpa acarreta [...] um ônus demasiado [...] para a obtenção da reparação do dano sofrido”.[1]
Embora isso raramente seja colocado em discussão, pode-se afirmar com segurança que o regime de responsabilidade adotado pelo Marco Civil da Internet é o da responsabilidade subjetiva, cuja aplicação se baseia na demonstração de ação ou omissão dolosa ou culposa do ofensor. Essa conclusão é sugerida não apenas pelos artigos 19 e 21, que remetem a omissões específicas, mas sobretudo pela dicção do parágrafo único do artigo 927 do Código Civil, que restringe a obrigação de indenizar “independentemente de culpa” – ou seja, a obrigação de indenizar em regime de responsabilidade objetiva – a duas hipóteses: a dos “casos especificados em lei” e a de atividades cujo desempenho “implicar, por sua natureza, risco para os direitos de outrem”.
A mensagem é clara: o direito civil brasileiro só admite responsabilidade objetiva nesses dois casos. A dicotomia é legislativa, não hermenêutica. A “vantagem econômica” destacada pelo Ministro Toffoli não afeta a definição do regime de responsabilidade.
E nenhuma das hipóteses do parágrafo único do artigo 927 se aplica ao caso. A primeira hipótese, relativa aos “casos especificados em lei”, foi e continua sendo descartada pela jurisprudência.[2] A segunda não autoriza conclusão diferente. Afirmar que a moderação de conteúdo é atividade que “por sua natureza” implica “risco para os direitos de outrem”, nos termos da legislação,[3] é retornar ao estágio regulatório injusto e contraproducente que ensejou a edição da Seção 230 do Communications Act, lei que confere, nos Estados Unidos, imunidade semelhante àquela estabelecida pelo artigo 19 no Brasil: se o que se pretende é fomentar um ambiente digital saudável, o exercício da moderação de conteúdo não pode agravar a responsabilidade das plataformas.
A justificação apresentada pelo Ministro Dias Toffoli é menos heterodoxa que a sua fundamentação. De fato, “nem sempre a ação ou omissão do provedor – para a recomendação e o impulsionamento, por exemplo – é suscetível de comprovação”, sobretudo por conta da dificuldade de apreensão das “funcionalidades técnicas da plataforma”.[4]Para lidar com isso, porém, não é preciso suplantar a legislação. Basta aplicar o artigo 373, § 1º do Código de Processo Civil, que admite a inversão do ônus probatório “diante de peculiaridades da causa relacionadas à impossibilidade ou à excessiva dificuldade” de produção da prova, ou em razão de “maior facilidade de obtenção da prova do fato contrário”. A norma lida especificamente, e de modo mais adequado, com o tipo de problema identificado pelo Ministro Dias Toffoli.[5]
No entanto, e ainda de acordo com o Ministro Toffoli, o regime de responsabilidade objetiva deveria ser aplicado apenas subsidiariamente ao regime de notificação e remoção estabelecido no artigo 21 do Marco Civil. Os provedores só responderiam objetivamente nos casos em que “recomend[ass]em, impulsion[ass]em (de forma remunerada ou não) ou moder[ass]em” conteúdos ilícitos gerados por terceiros.[6] Nas demais hipóteses, prevaleceria, com caráter de “regra geral”, o artigo 21.
2. Impulsionamento de conteúdo
Sua referência, nesse ponto, é o caso Anderson v. TikTok, julgado pelo Tribunal de Apelação do Terceiro Circuito dos Estados Unidos em agosto de 2024.[7] O caso envolveu a morte de Nylah Anderson, de dez anos de idade, que tentou realizar o blackout challenge, um desafio de auto-estrangulamento recomendado pelo algoritmo do TikTok. Anderson não havia buscado ativamente esse conteúdo: o vídeo foi sugerido pela plataforma. Diante disso, a mãe da criança ingressou em juízo para responsabilizar o TikTok, que, em sua defesa, alegou que a plataforma estaria isenta de responsabilidade em virtude da ampla imunidade conferida a provedores pela Seção 230.
Acatado em primeira instância, o argumento do TikTok foi rejeitado pelo Tribunal de Apelação, que decidiu, a partir de fundamentos criticáveis,[8] que a Seção 230 não impediria o prosseguimento da ação, uma vez que a “recomendação e a promoção” do conteúdo seriam, na verdade, condutas do próprio TikTok – ou seja, já não se trataria de hipótese de responsabilização por conteúdo de terceiro (third-party content), mas de hipótese de responsabilização por discurso próprio (first-party speech). Em referência a precedente da Suprema Corte,[9] o Tribunal entendeu que o TikTok moldou o conteúdo de terceiros para criar discurso próprio.[10] Como a Seção 230 estabelece imunidade apenas em relação a conteúdos de terceiros, ela já não se aplicaria ao TikTok.
O caso revela um ponto que não pode ser ignorado pelo STF: o funcionamento de certas plataformas pode demandar entendimentos contramajoritários diferentes. No caso do TikTok, a remoção de um único vídeo tende a ser insuficiente: seu conteúdo se reproduz em cascata, a partir de vídeos produzidos por outros criadores. Por isso mesmo, a distinção proposta em Anderson v. TikTok deve ser encarada com cautela. Para além de seu caráter excepcional e provisório – o caso deverá ser revisto pela Suprema Corte norte-americana –, o julgamento não autoriza a conclusão de que plataformas devem, sem distinção, ser responsabilizadas por danos decorrentes de conteúdos de terceiros que tiverem impulsionado, moderado ou recomendado. A questão é saber se (e como) o impulsionamento pode transformar o conteúdo de terceiros em discurso ou conteúdo próprio.
Mais uma vez, o próprio Ministro Toffoli parece reconhecer esse fato ao afirmar que “as atividades de recomendação, impulsionamento e moderação de conteúdo são intrínsecas aos modelos de negócios adotados por muitos provedores”.[11] Se essas atividades são intrínsecas aos modelos de negócios das plataformas, elas não podem embasar a aplicação de um regime de responsabilidade que se pretende excepcional. É importante que o STF deixe isso claro, sobretudo para que essa hipótese não se confunda com a de danos decorrentes de conteúdos gerados a partir do conteúdo de terceiros, a exemplo dos conteúdos criados pelo Grok, chatbot do X, de Elon Musk, um mecanismo de inteligência artificial “sem escrúpulos” que pode gerar violar direitos de personalidade.
3. Dever de controle e prestação de informações específicas
De acordo com o Ministro Dias Toffoli, “os provedores de aplicações de internet devem atuar de forma responsável, transparente e cautelosa, a fim de assegurar um ambiente digital seguro, previsível e confiável, baseado nos princípios gerais da boa-fé, da função social e da prevenção e mitigação dos danos.” Ainda de acordo com o Ministro Toffoli, esses deveres “são, por natureza, deveres de atuar com a devida diligência,” e “se desdobram em deveres anexos e em deveres instrumentais.”[12]
Os deveres anexos listados em seu voto podem ser reunidos em quatro categorias. A primeira engloba deveres de normatização, incluindo atualização e ampla divulgação de termos de uso e critérios de moderação; a segunda agrupa deveres de comunicação com usuários, a exemplo da criação de canais para recebimento de denúncias; a terceira diz respeito à promoção de transparência, seja por meio da publicação de critérios de moderação, seja pela divulgação de relatórios sobre o tratamento dispensado a reclamações; por fim, a quarta categoria, sobre a qual gostaria de me concentrar, abrange deveres de controle e prestação de informações específicas, tendo em vista o enfrentamento da “desinformação”, de “notícias fraudulentas” e de “riscos sistêmicos”.[13]
Para o Ministro Toffoli, “é dever anexo dos provedores de aplicações de internet o de atuar diligentemente para prevenir e mitigar práticas ilícitas no âmbito de seus serviços, adotando as providências necessárias para combater a disseminação de conteúdos ilegais”.[14] Seu voto lista esses conteúdos taxativamente. Entre eles estão crimes contra o Estado Democrático de Direito, atos de terrorismo, sugestões de violência contra vulneráveis e a “divulgação de fatos notoriamente inverídicos ou descontextualizados” que possam acarretar violência ou danos a processos eleitorais.[15] As plataformas assumiriam o dever de identificar e fiscalizar as contas de origem desses conteúdos, “encaminhando esses dados às autoridades competentes para as providências cabíveis”.[16]
Em abstrato, a referência a “deveres anexos” das plataformas é bem-vinda, na medida em que evidencia o caráter originariamente contratual das relações estabelecidas entre provedores de aplicações e usuários.[17] O desdobramento concreto desses deveres em mandamentos de controle e prestação de informações específicas, no entanto, traz sérias preocupações. Isso pode habilitar condutas arbitrárias que, em contexto de potencial alinhamento político-ideológico das plataformas, merecem cuidado redobrado. A proposta representa, de resto, o contrário do que dispõe o Digital Services Act europeu (DSA), especificamente mencionado pelo Ministro Toffoli.[18]
Foi em vista dessas preocupações que o Ministro Barroso propôs a substituição do dever de controle e prestação de informações específicas por uma espécie de dever de cuidado — em suas palavras, uma “obrigação de empenhar todos os esforços para prevenir e mitigar riscos sistêmicos criados ou potencializados por suas atividades e pelos conteúdos publicizados no âmbito de seus serviços”.[19] Nessa proposta, a noção de risco sistêmico embasa obrigação de envidar melhores esforços cujo desatendimento, ao que parece, se transformaria em critério para imputação de responsabilidade no regime a ser estabelecido após a declaração de inconstitucionalidade parcial do artigo 19.
4. Risco sistêmico
A referência do Ministro Barroso também é o DSA, cujo artigo 34 determina que plataformas de grande porte devem identificar, analisar e avaliar, de modo diligente, os riscos sistêmicos decorrentes dos serviços que prestam, tendo em vista sua gravidade e sua probabilidade. A mesma disposição menciona quatro ordens de riscos: a “difusão de conteúdos ilegais”, os “efeitos negativos reais ou previsíveis no exercício dos direitos fundamentais”, os “efeitos negativos reais ou previsíveis no discurso cívico e nos processos eleitorais, bem como na segurança pública” e os “efeitos negativos reais ou previsíveis, em relação à violência de gênero, à proteção da saúde pública e aos menores, e às consequências negativas graves para o bem-estar físico e mental da pessoa”.
No DSA, a identificação de riscos sistêmicos serve de base para a adoção de “medidas de atenuação”, nos termos do artigo 35. Trata-se, aqui, de recomendações de adaptação dos próprios serviços digitais, de ajuste dos termos de serviço, de revisão dos processos de moderação, de adoção de medidas de sensibilização dos usuários e assim por diante. Em situações de crise, descritas pelo artigo 36, essas recomendações podem se desdobrar em deveres de apresentação de relatórios.[20] Nenhuma dessas disposições embasa, no entanto, a imposição de deveres de controle e prestação de informações, tampouco a caracterização de algum regime de responsabilidade. No DSA, o conceito de risco sistêmico se limita a recomendações regulatórias e a deveres de produção de relatórios. Ele não fundamenta deveres de polícia, nem se insere no debate sobre responsabilidade das plataformas pelo compartilhamento de conteúdos gerados por terceiros.
O tema já circula na literatura brasileira. Em cuidadoso estudo publicado no final de 2023, um grupo de professores e pesquisadores aventou, no contexto de rediscussão do artigo 19, a transposição do conceito de risco sistêmico do direito do mercado financeiro para o direito das plataformas digitais.[21] A analogia deve ser encarada com cuidado: no direito do mercado financeiro, e no direito bancário em particular, riscos sistêmicos representam ameaças à higidez do sistema bancário e das instituições que o compõem; no direito das plataformas digitais, por outro lado, tais riscos não ameaçam o sistema de comunicação digital e as plataformas que o constituem, mas outros sistemas ou bens constitucionalmente tutelados, a exemplo da segurança e da saúde pública. No primeiro caso, os riscos sistêmicos representam ameaças ao próprio sistema que gera o risco; no segundo, representam ameaças a objetos externos ao sistema gerador.
Isso não significa que o conceito de risco sistêmico seja inapropriado ao direito das plataformas digitais ou que ele não possa trazer ganhos analíticos e normativos para sua disciplina. Significa apenas que suas menções no julgamento da constitucionalidade do artigo 19 – uma no contexto da imposição de deveres de controle e prestação de informações específicas, outra na caracterização do regime de responsabilidade por conteúdos de terceiros – discrepam dos sentidos que o conceito assume no DSA.
5. Proposições
O julgamento da constitucionalidade do artigo 19 do Marco Civil da Internet inaugura uma nova fase na disciplina jurídica das big techs. Por mais abrangente e cuidadosa que a decisão do Supremo Tribunal Federal venha a ser, novos problemas inevitavelmente escaparão de seus parâmetros. A velocidade das inovações no campo da inteligência artificial e a disposição transgressiva de atores como Elon Musk e Mark Zuckerberg recomendam intervenções cuja legitimidade possa, com a maior clareza possível, ser traçada ao direito posto – que segue sendo, com todas as suas limitações, a melhor representação da soberania nacional e da democracia. Diante da tempestade, é melhor navegar pelas cartas náuticas disponíveis do que confiar em mapas improvisados.
Isso envolve, entre outras cautelas:
- A rejeição do regime de responsabilidade objetiva por danos decorrentes do conteúdos de terceiros, que não tem fundamento na legislação brasileira;
- O adiamento da proposição de regime de responsabilidade diferenciado pelo impulsionamento de conteúdo, seja pela sua indeterminação, seja pela necessidade de distinguir conteúdos impulsionados de conteúdos gerados por IA;
- O abandono da proposta de atribuição, aos provedores de aplicações, de deveres de controle e prestação de informações que possam colocar em risco direitos de usuários brasileiros ou habilitar condutas arbitrárias; e, por fim,
- A delimitação do conceito de risco sistêmico ao campo das recomendações de identificação, análise, avaliação e mitigação de riscos, sem esgarçá-lo para domínios em que sua aplicação não está consolidada, como o da responsabilidade por danos decorrentes de conteúdos gerados por terceiros.
[1] STF, RE 1.037.396/SP, Versão preliminar do voto do Min. Dias Toffoli, pp. 100–103.
[2] Por todos, STJ, REsp 2.088.236/PR, Quarta Turma, Rel. Min. Nancy Andrighi, j. 23/04/2024.
[3] A rejeição da hipótese de risco da atividade deve ser bem compreendida: o que distingue essa hipótese não é a mera oferta de risco – algo que caracteriza qualquer atividade humana –, mas o fato de o risco em questão ser aspecto constitutivo da atividade analisada. Como observou a Ministra Nancy Andrighi dois anos antes da promulgação do Marco Civil da Internet, provedores de conteúdo não expõem os usuários “a um risco excepcional, próprio de atividades com elevado potencial ofensivo.” STJ, REsp 1.308.830/RS, Terceira Turma, Rel. Min. Nancy Andrighi, j. 08/05/2012, pp. 15–16.
[4] STF, RE 1.037.396/SP, Versão preliminar do voto do Min. Dias Toffoli, p. 101.
[5] Por exemplo, TJSP, Agravo de Instrumento 2040680-95.2020.8.26.0000, 13ª Câmara de Direito Privado, Rel. Des. Nelson Jorge Júnior, j. 10/02/2021, p. 7: “neste caso, está presente a hipótese prevista no § 1º, que autoriza o magistrado a não aplicar a regra prevista no ‘caput’, [na] medida [em] que é impossível à autora, ora agravada, comprovar os motivos pelos quais foi impedido seu acesso ao aplicativo WhatsApp”.
[6] STF, RE 1.037.396/SP, Versão preliminar do voto do Min. Dias Toffoli, p. 160.
[7] Anderson v. TikTok Inc, No. 22-3061 (3rd Cir. 2024).
[8] Ryan Calo, Courts Should Hold Social Media Accountable — But Not By Ignoring Federal Law, Harvard Law Review: Blog Essays [online], 10.9.2024, https://harvardlawreview.org/blog/2024/09/courts-should-hold-social-media-accountable-but-not-by-ignoring-federal-law/.
[9] Moody v. NetChoice, LLC, 144 S. Ct. 2383 (2024).
[10] Anderson v. TikTok Inc, No. 22-3061 (3rd Cir. 2024): “TikTok makes choices about the content recommended and promoted to specific users, and by doing so, is engaged in its own first-party speech.” Tradução: “O TikTok faz escolhas sobre o conteúdo recomendado e promovido para usuários específicos, e ao fazê-lo, engaja-se em discurso próprio.”
[11] STF, RE 1.037.396/MG, Versão preliminar do voto do Min. Dias Toffoli, p. 100 (sem destaques no original).
[12] STF, RE 1.037.396/MG, Versão preliminar do voto do Min. Dias Toffoli, p. 126.
[13] Os deveres instrumentais, por sua vez, estão relacionados com a representação jurídica das plataformas no Brasil. Trata-se, em particular, do dever de constituir representante com plenos poderes para atuar nas esferas administrativa e judicial, prestar informações, cumprir determinações judiciais e responder pelo descumprimento de obrigações.
[14] STF, RE 1.037.396/MG, Versão preliminar do voto do Min. Dias Toffoli, pp. 128 e 163.
[15] STF, RE 1.037.396/MG, Versão preliminar do voto do Min. Dias Toffoli, pp. 113–114.
[16] STF, RE 1.037.396/MG, Versão preliminar do voto do Min. Dias Toffoli, pp. 128 e 163.
[17] Mateusz Grochowski, From Contract Law to Online Speech Governance: The Sound of Silence, Verfassungblog [online], 18.5.2023, https://verfassungsblog.de/contract-speech/.
[18] O art. 8º do do DSA esclarece que “[n]ão será imposta a esses prestadores qualquer obrigação geral de controlar as informações que os prestadores de serviços intermediários transmitem ou armazenam, nem de procurar ativamente factos ou circunstâncias que indiquem ilicitudes.” Em vez de exigir controle antecipado (ex ante) sobre o incomensurável volume de informações que se publica nas plataformas, o Regulamento europeu impõe dever de atuação diligente ao provedor após a tomada de ciência do conteúdo ilícito (ex post) – em geral, por meio de notificação extrajudicial, mas também em hipóteses de flagrante ilicitude.
[19] YouTube, Canal STF, vídeo Sessão Plenária - Marco Civil da Internet - 5/12/2024, 6.12.2024, 53:44, https://www.youtube.com/watch?v=OAccmmamtE0.
[20] No Brasil, medidas similares estão previstas na Resolução 245/2024 do CONANDA (relativa à proteção de crianças e adolescentes no ambiente digital) e na Nota Técnica 2/2024 da SENACON (referente a medidas de transparências em anúncios veiculados em plataformas digitais). Agradeço a Gabriela Teixeira Cavagnoli por essa e outras sugestões.
[21] Daniel Pires Novais Dias et alii, Plataformas no Marco Civil da Internet: A necessidade de uma responsabilidade progressiva baseada em riscos, Civilistica.com, v. 12, n. 3, 2023, pp. 16–18.