Liberdade de expressão em redes sociais: limites e desafios para a regulação
Durante a primeira semana de fevereiro, acompanhamos a repercussão do comentário do podcaster Bruno Aiub (mais conhecido pelo apelido 'Monark'), que avaliou como positiva a legalização de um partido nazista no país no podcast que administrava, o Flow Podcast. Seu pedido de desculpas não foi suficiente para evitar a debandada de seus patrocinadores, após cobranças de ativistas e organizações da sociedade civil, como o Sleeping Giants, que têm sido bastante cruciais para forçar mais responsabilidade ao setor privado. Diversos entrevistados pelo programa também requisitaram a retirada de suas entrevistas do ar.
Outra consequência importante do episódio foram as punições anunciadas pelo YouTube que levaram o podcaster a afirmar que estava sofrendo "perseguição política" pela plataforma. O YouTube comunicou que o canal seria desmonetizado por violação às regras do programa de parceria, especificamente as políticas de Responsabilidade do Criador de Conteúdo. Monark também ficaria proibido de criar novos canais ou utilizar canais de terceiro visando a monetização, condutas que configurariam burla à punição de suspensão, segundo a plataforma.
Um mês após a suspensão do YouTube, na última semana, o podcaster publicou em seu perfil no Twitter que suas “férias acabaram”, anunciando que em breve começaria a publicar na Rumble. A Rumble é uma plataforma de vídeos canadense que tem sido atrativa para personalidades com postagens controversas que foram punidas pelo YouTube, ao prometer dar uma maior “liberdade de expressão” a produtores de conteúdo. Teve um crescimento exponencial após o episódio do Capitólio, com o anúncio de medidas das grandes plataformas para coibir discursos nocivos, o que desagradou a investidores estadunidenses.
Outras plataformas de ‘nicho’ também apostam no apelo a grupos 'insatisfeitos' com a possibilidade de maior controle de conteúdos nocivos pelas grandes plataformas. Redes como Parler, Clapper, Gab e Gettr são algumas das iniciativas que prometem um espaço com "mais liberdade de expressão". No entanto, tais planos iniciais precisaram ser revisitados após se tornarem palco para uma enxurrada de atividades de trolls, conteúdos jihadistas, pornográficos e extremos, difamação e doxxing (divulgação de informações privadas e dados pessoais).
Big techs também têm forçado a mudança das políticas dessas plataformas, que precisam se adequar às determinações para serem ofertadas em suas lojas de apps, como também apurado por Laís Martins, tendo o próprio Rumble, nova casa do podcaster Monark, já deixado claro que “possui políticas estritas de moderação quando se trata de incitação de violência, conteúdo ilegal, racismo, antisemitismo e promoção de grupos terroristas”.
Plataformas digitais fazem censura privada?
A narrativa de censura e perseguição política tem sido bastante frequente por parte de personalidades controversas, conservadores e extremistas insatisfeitos com a aplicação da moderação de conteúdo em suas postagens. Apesar da irresignação, a moderação de conteúdo, a priori, trata-se da aplicação pelas plataformas digitais de suas próprias regras, estabelecidas em suas políticas de comunidade e seus termos de serviços.
A literatura especializada possui extenso debate sobre se as plataformas de redes sociais deveriam ou não ser consideradas serviços públicos. Dentro desse debate, opiniões variam sobre a extensão da regulação específica para o setor. Até o presente momento, plataformas são empresas privadas e há garantia de liberdade para definição e aplicação das regras de conduta em suas comunidades, desde que não consistam em violações ao ordenamento jurídico pátrio.
Medidas de punição a usuários que violam regras não se trata, portanto, de perseguição política ou de censura privada, mas da mera execução de contrato firmado entre as partes no momento de anuência aos termos de uso. Quando Monark fala abertamente em defesa de um partido nazista no país, ainda que em abstrato, o YouTube atua com base nos termos de serviço que foram acordados pelo produtor de conteúdo, no momento de aceite destas regras, para proteger seu ecossistema.
Desafios da moderação de conteúdo
A partir de denúncias dos usuários ou da detecção via moderação humana ou automatizada, conteúdos que violam as políticas das plataformas podem ser alvo de múltiplas técnicas de moderação que vão desde filtragem, rotulação, retirada ou limitação de seu engajamento ('downranking' ou 'shadowbanning'), desmonetização, à supressão total do conteúdo e banimento de determinados perfis (a chamada "deplataformização", que sofreu o ex-presidente dos Estados Unidos, Donald Trump).
São medidas fundamentais para evitar o espraiamento de conteúdo extremo, nocivo, ilícito ou prejudicial a seus usuários. É importante termos em mente que o grande volume de casos de solicitações diárias faz com que avaliação semelhante pelo Judiciário seja impossível. As plataformas atuam, portanto, no front do campo discursivo, e podem desempenhar papel vital para evitar e coibir ataques a direitos e às instituições democráticas.
No entanto, apesar da disponibilidade das empresas em reforçar seus compromissos com a democracia, há ainda problemas nas decisões das plataformas cujas soluções estão bastante aquém do ideal. Conteúdos lícitos são, muitas vezes, retirados indevidamente, enquanto conteúdos ilícitos permanecem ativos por muito tempo – o que gera o sentimento generalizado de inconformidade e falta de isonomia na aplicação das regras das plataformas.
A dita ‘arbitrariedade’ das decisões das plataformas, muitas vezes, tem como causa justamente a baixa eficiência da moderação de conteúdo. Pesquisa realizada pela Mozilla Foundation apontou que o investimento em treinamento de sistemas para o processamento de linguagem natural, que substancia a moderação automatizada de conteúdo, em línguas não anglófonas é bastante pequeno comparado à língua inglesa. Outro apontamento é a dimensão bastante pequena e pouca transparência sobre as equipes de moderadores humanos – atores fundamentais para a catalogação de conteúdos ilícitos e para o treinamento de sistemas de inteligência artificial que servem à identificação e filtragem automatizada de conteúdo.
É preciso regular
Compromissos mais firmes das grandes plataformas deveriam contemplar o significativo aumento de tais equipes no país, mais financiamento para o treinamento de sistemas automatizados, e a expansão de mecanismos a usuários, com canais de comunicação para aprimorar o acompanhamento de denúncias ou até mesmo programas de parcerias para checadores e outros interessados, como iniciado, por exemplo, ainda que de forma muito incipiente, pelo Twitter, com seu projeto BlueSky.
O poder público também possui o papel essencial de estabelecer regras procedimentais, de devido processo e de transparência e accountability, para evitar que o poder privado ganhe um escopo abusivo, como tem previsto, por exemplo, o PL 2630/2020 - iniciativa congratulada em nossa nota técnica sobre o tema. Regras que possam definir a revisão de decisões e garantia da ampla defesa aos usuários tornam possível a maior compreensão sobre a aplicação das sanções privadas e asseguram que a aplicação seja, de fato, isonômica. Dito isso, cabe ressaltar que não há censura privada quando há clareza de regras e clareza da violação destas. Isso não significa que o poder das plataformas não deva ser supervisionado ou seguir preceitos basilares do Estado Democrático de Direito.
Em uma sociedade em que as plataformas têm se tornado o principal meio para a comunicação pública, decisões sobre discurso devem ser transparentes e baseadas no devido processo legal. Sem parâmetros mínimos e acordos fundamentais sobre estes pontos, críticas injustificadas continuarão ocorrendo, assim como arbitrariedades graves e reais.
Autores
Yasmin Curzi de Mendonça