Integridade da informação no G20?

O termo “integridade da informação” (ou “integridade informacional”) tem sido ativamente utilizado em documentos e comunicações oficiais doméstica e internacionalmente como uma forma de deslocar a narrativa bélica sobre o combate às fake news. 

Direito
26/04/2024
Yasmin Curzi de Mendonça
Luca Belli

O combate à desinformação, ao discurso de ódio, às produções sintéticas de conteúdo por meio de inteligência artificial generativa e práticas algorítmicas nocivas por atores privados são alguns dos tópicos que têm emergido como temas fundamentais para a proteção da democracia e dos direitos humanos.

Neste contexto o termo “integridade da informação” (ou “integridade informacional”) tem sido ativamente utilizado em documentos e comunicações oficiais doméstica e internacionalmente como uma forma de deslocar a narrativa bélica sobre o combate às fake news promovendo uma evolução de uma lente negativa para uma lente positiva baseada na integridade, a partir de uma agenda proativa.

Diante deste cenário, no dia 22 de março, o CTS-FGV reuniu em um webinar [1]representantes da Unesco e da União Europeia, especialistas (Meta Oversight Board; Forum on Information and Democracy; Desinformante e IT for Change) e acadêmicos para debater o tema.

O debate é parte de uma série de webinars sobre Políticas Digitais no G20, organizados como eventos paralelos do T20, em parceria com a Unidade Egov da Universidade da ONU, a Consumers International e o Instituto de Defesa do Consumidor. O primeiro webinar da série, dedicado à Governança de IA no G20[2], já tinha destacado a necessidade de se regular sistemas de inteligência artificial para limitar – ou idealmente evitar – riscos sistêmicos.

O surgimento de novos termos, elaborados e apresentados por atores diversos, sem uma conceituação definida, foi elencado como um dos principais desafios pelos palestrantes. Como apresentado por Nina Santos, a própria terminologia “integridade da informação” ainda não possui um significado definido ou delineamento teórico.

Sua construção, a partir das realidades específicas dos diferentes contextos socioculturais e políticos em que os dilemas comunicacionais se apresenta, é fundamental para o estabelecimento de um significado comum — capaz de transcender barreiras linguísticas e culturais e permitir ações efetivas de forma adaptativa às necessidades globais.

Além da falta de significado comum, o termo “integridade da informação” pode orientar o debate regulatório para a proteção da camada de conteúdo. No entanto, a necessidade de parâmetros e responsabilidades mais estritas e adequadas para atores privados e usuários pela viabilização de conteúdos ilegais deve caminhar, necessariamente, com o olhar atento para a camada sociotécnica das plataformas: a coleta e uso abusivo de dados pessoais para microtargeting e recomendação de conteúdo a partir de métricas de engajamento que favorecem a viralização de conteúdo extremista e notícias falsas[3].

Para a construção de uma agenda verdadeiramente propositiva, precisamos considerar as plataformas digitais como sistemas sociotécnicos que não apenas refletem, mas são capazes de moldar o comportamento dos usuários em seus ambientes, a partir de determinados incentivos. Seus elementos de design são deliberadamente construídos para capturar e reter a atenção dos usuários[4].

O sucesso de uma plataforma é frequentemente medido pelo tempo que os usuários passam nela, o que leva à criação de características que maximizam o engajamento, que pode prejudicar o bem-estar psicológico dos usuários[5]. Reconhecer o papel do design e da experiência do usuário implica na necessidade de repensar essas estruturas para promover interações mais saudáveis e produtivas. Como apontado por Rafael Evangelista, indivíduos são recorrentemente “’instrumentados’ a buscarem o máximo de atenção e engajamento para si – e, em decorrência, para a plataforma – de modo a maximizarem seu bem-estar, seja financeiro ou psicológico”[6].

Temos aqui a necessidade de que o conceito de “integridade da informação” possa também englobar a integridade dos próprios sistemas de fluxo comunicacional. Exigências de transparência significativa, de auditorias independentes sobre os algoritmos, de mitigação de vieses e mecanismos mais robustos de responsabilização para as plataformas por amplificação de conteúdo nocivo são alguns dos elementos mais vitais para a proteção definitiva dos espaços informacionais e comunicativos.

Por fim, precisamos lembrar do elefante na sala. As práticas de zero rating[7] em que operadoras de telecomunicações oferecem acesso a certos aplicativos – tipicamente redes sociais – sem cobrar pelo uso de dados nas franquias dos usuários têm sido criticadas como violadoras do princípio de neutralidade da rede[8], há anos, e podem ter um efeito particularmente nefasto no que diz respeito à circulação e ao impacto da desinformação.

O zero rating permanece extremamente usado no Sul Global, onde a enorme maioria de usuários são de baixa renda e, portanto, são facilmente seduzidos para o patrocínio da aplicativos sem uso de suas franquias. Porém, ao concentrar artificialmente a atenção – e a coleta dos dados – dos usuários em uma seleção muito limitada de plataformas patrocinadas, tais práticas limitam a exposição de usuários a uma gama mais diversificada de informações e até impossibilitam a checagem de fatos, sendo o acesso à internet mantido artificialmente caro enquanto o acesso às plataformas é subsidiado.

Nos países do Sul Global, onde o zero rating é prevalente, o acesso à informação é muitas vezes restrito aos conteúdos disponibilizados por essas plataformas favorecidas, influenciando a percepção pública e o discurso democrático, inclusive, com a possibilidade de promoção ativa de desinformação como bem evidenciado na pesquisa de Evangelista e Bruno (2019).

A devida proteção do ambiente comunicacional digital deve, necessariamente, buscar alternativas que promovam um acesso mais justo e aberto à internet, de modo a evitar a concentração de informações em determinadas aplicações que podem promover ingerências sobre o seu fluxo, sem concorrência ou alternativa viável no mercado.

O impacto de tais práticas será um dos temas do próximo webinar da série, dedicado à Conectividade Significativa no G20[9], no dia 27 de maio, às 11h.

[1] O webinar foi organizado em parceria com a Consumers International (CI) e o Instituto de Defesa de Consumidores (IDEC), estando no âmbito das atividades do projeto Mídia e Democracia, que ocorre em parceria com a FGV Comunicação, a Democracy Reporting International e Agência Lupa de checagem, e da participação do CTS-FGV no T-20, grupo de think tanks dentro do G-20.

[2] Disponível em: https://cyberbrics.info/webinar-ai-governance-in-the-g20/

[3] BRADY, W. J., CROCKET, M. J., VAN BAVEL, J. J. The MAD model of moral contagion: The role of motivation, attention, and design in the spread of moralized content online. Perspectives on Psychological Science, 15(4), 978-1010, 2020.

[4] BRUNO, F. G., BENTES, A. C. F., & FALTAY, P. Economia psíquica dos algoritmos e laboratório de plataforma: mercado, ciência e modulação do comportamento. Revista Famecos, 26(3), 2019.

[5] MILLER, Caroline. “Does Social Media Use Cause Depression? How heavy Instagram and Facebook use may be affecting kids negatively”. 2023. Disponível em: https://childmind.org/article/is-social-media-use-causing-depression/

[6] EVANGELISTA, Rafael. “Instrumentação maquínica: como as plataformas sociais produzem nossa desmobilização política cotidiana”, 2020. Disponível em: https://www.comciencia.br/instrumentacao-maquinica-como-as-plataformas-s...

[7] Disponível em: http://www.zerorating.info.

[8] Disponível em: Neutralidade de rede e ordem econômica | Observatório do Marco Civil da Internet (omci.org.br).

[9] Inscrições em: Webinar | Meaningful Connectivity in the G20 | Portal FGV

*As opiniões expressas neste artigo são de responsabilidade exclusiva do(s) autor(es), não refletindo necessariamente a posição institucional da FGV.

Do mesmo autor

Autor(es)

  • Yasmin Curzi de Mendonça

    Professora na FGV Direito Rio, coordenadora de seu Programa Diversidade e Inclusão e Pesquisadora de seu Centro de Tecnologia e Sociedade, atuando desde 2019 com foco nas áreas de Direitos Humanos e Tecnologia, Regulação de Plataformas, Gênero e Democracia Digital. Doutora pelo IESP-UERJ, Mestre pela PUC-Rio, graduada em Direito e em Ciências Sociais pela FGV-Rio, com período de Intercâmbio Acadêmico na Université Sorbonne Paris-IV. Integrante do Comitê Nacional de Cibersegurança da Presidência da República.

  • Luca Belli

    Professor da Escola de Direito do Rio de Janeiro da Fundação Getulio Vargas, onde coordena o Projeto CyberBRICS  e a edição latino-americana da Computers, Privacy and Data Protection (CPDP) Conference.

Últimos artigos

Esse site usa cookies

Nosso website coleta informações do seu dispositivo e da sua navegação e utiliza tecnologias como cookies para armazená-las e permitir funcionalidades como: melhorar o funcionamento técnico das páginas, mensurar a audiência do website e oferecer produtos e serviços relevantes por meio de anúncios personalizados. Para mais informações, acesse o nosso Aviso de Cookies e o nosso Aviso de Privacidade.