Inteligência Artificial no Brasil ainda precisa de uma estratégia

Dado o longo processo de consulta pública, o conhecimento já existente e as experiências de outros países, era de se esperar um avanço mais significativo

Direito
11/05/2021
Walter Britto Gaspar
Yasmin Curzi

Quem tome o tempo de ler a recém-publicada Estratégia Brasileira de Inteligência Artificial (EBIA) poderá terminar a leitura sem uma ideia muito concreta de qual é, de fato, a estratégia. O documento descreve, em cerca de 50 páginas, algumas considerações genéricas sobre a implementação da IA em diversos setores, mas sem nunca mergulhar profundamente em questões de planejamento que seriam básicas para uma estratégia bem-sucedida. Muitas perguntas permanecem sem resposta, fazendo o documento tomar feições mais de uma carta de intenções do que de um planejamento pragmático.

Abordaremos a seguir algumas dessas questões, tratando de como a EBIA i) não identifica os atores responsáveis pela governança, deixando de seguir o exemplo de outros documentos estratégicos já produzidos pelo Executivo; ii) não especifica indicadores mensuráveis de referência; iii) tem caráter demasiadamente genérico; iv) não aproveita suficientemente a expertise das contribuições ofertadas na consulta pública; v) não aprofunda os métodos disponíveis para prover transparência e explicabilidade aos sistemas de IA; e vi) incorpora de forma acrítica as pesquisas sobre o uso de IA na Segurança Pública.

Indefinição da governança

Um primeiro ponto essencial que permanece indefinido é o das estruturas de governança responsáveis pela sua gestão. Muitas contribuições realizadas ao longo da consulta pública sobre a EBIA sugeriram a criação de corpos regulatórios, autoridades específicas ou o aproveitamento de estruturas já existentes. Por exemplo, nós do Centro de Tecnologia e Sociedade (CTS) da FGV Direito Rio o fizemos, em nossa contribuição (p. 18), bem como o Instituto de Tecnologia e Sociedade do Rio de Janeiro (ITS Rio) (p. 16). A criação de uma autoridade específica é, ainda, identificada como uma diretriz compartilhada por diversas cartas de princípios, mapeadas no estudo Principled Artificial Intelligence, do centro Berkman Klein da Universidade de Harvard, em que se avaliaram abordagens de múltiplas fontes sobre as aplicações de inteligência artificial para se chegar a um saldo geral das recomendações mais frequentes.

Muitas das ações do primeiro eixo da estratégia – “Legislação, Regulações e Uso Ético” –, bem como dos demais, se beneficiariam de uma melhor definição sobre quem será seu sujeito ativo. Saber quem estará criando, implementando, incentivando ou promovendo as ações listadas define a extensão do que efetivamente poderá ser realizado. Repisando o ponto, uma definição da estrutura de governança – atores responsáveis e respectivas capacidades – traria clareza sobre a implementação destas ações.

A EBIA é, neste ponto, silente. Apesar de em alguns momentos mencionar estruturas de governança já existentes, nenhuma  das “ações estratégicas” listadas ao fim de cada eixo do documento é decisiva em relação a um corpo ou corpos de governança responsáveis pelo acompanhamento da execução da estratégia como um todo. A Portaria nº 4.617/21 do Ministério de Ciência, Tecnologia e Inovações (MCTI), que cria a estratégia, estabelece sobre este ponto apenas que caberá ao ministério “criar instâncias e práticas de governança para priorizar, implantar, monitorar e atualizar as ações estratégicas estabelecidas na Estratégia Brasileira de Inteligência Artificial”.

Diante disto, é impossível saber a forma que a governança da IA no Brasil tomará no futuro. Se olharmos para outros documentos vizinhos produzidos pelo próprio Executivo Federal, a insuficiência da EBIA fica em evidência: tanto o Sistema Nacional para a Transformação Digital quanto o Plano Nacional de Internet das Coisas têm corpos de governança específicos criados em seus decretos regulamentadores.

Ainda sobre o tema, vale notar que é essencial a ampla participação da sociedade civil, academia e setor produtivo nessas estruturas de governança, dada a natureza complexa do tema abordado. Como reiteradamente comentado nas contribuições ao processo de consulta pública da estratégia, diferentes aplicações de inteligência artificial em diversos setores têm potenciais riscos e benefícios radicalmente distintos, de modo que a composição de grupamentos demasiadamente homogêneos e unívocos para o acompanhamento da estratégia pode levar a pontos cegos que prejudiquem a realização dos objetivos expostos.

Mensuração do progresso

A questão da governança relacionada à estratégia de inteligência artificial é um tema que precisará ser definido pelo MCTI no futuro para dar concretude à EBIA. Isto é crucial, pois dessa definição partem várias outras perguntas que o documento deixou em aberto. Qual será a periodicidade de revisão e controle das ações? Quais os indicadores de sucesso para cada uma? Em quanto tempo a estratégia precisará ser reformulada - um ponto importante, dada a velocidade com que o cenário tecnológico se transforma?

Tomando como referência, por exemplo, a Estratégia Brasileira Para a Transformação Digital, vemos que cada um de seus nove eixos traz não apenas ações estratégicas, mas também indicadores mensuráveis de referência para a verificação do sucesso da implementação da estratégia. Seria importante desenvolver indicadores e um cronograma de revisões periódicas para a EBIA, com publicação de metas para seu acompanhamento. Isto contribuiria para o accountability relativo aos objetivos traçados e serviria como um caminho das pedras para a sua execução, facilitando o trabalho do MCTI e demais órgãos governamentais envolvidos.

Imprecisão das ações

Algumas das “ações estratégicas” da EBIA não possuem a feição de ações, mas de objetivos. Por exemplo, ainda no primeiro eixo, a ação de “Estimular ações de transparência e de divulgação responsável quanto ao uso de sistemas de IA, e promover a observância, por tais sistemas, de direitos humanos, de valores democráticos e da diversidade” soa mais como um intróito a uma carta de princípios do que uma ação concreta. Na verdade, parece mais uma reorganização de pontos já elaborados na fase de consulta pública.

A própria página da consulta pública que contém este tópico traz contribuições relevantes que poderiam dar mais concretude ao enunciado. A BRASSCOM, por exemplo, destaca o AI Framework de Singapura, que enumera princípios para a aplicação de sistemas de IA e extrai deles boas práticas; e a associação Data Privacy Brasil destaca os termos da Declaração de Toronto de 2018, que também lista ações que vão a nível de minúcia maior do que o apresentado na EBIA.

Dado o nível de detalhamento que se pode encontrar em algumas das contribuições da sociedade civil ao processo de consulta pública da EBIA, a iniciativa pareceu uma oportunidade perdida.

Além disso, alguns termos-chave precisam de melhor definição para serem operacionalizados. Por exemplo, ao falar em “Facilitar o acesso aos dados abertos do governo” (eixo “Governança de IA”), seria importante especificar o que se pretende por “facilitar”, visto que para aplicações de IA não apenas o acesso a dados abertos, mas a qualidade e estruturação desses dados são fatores cruciais. Ao enunciar a ação de “Estimular a retenção de talentos especializados em TIC no Brasil” (eixo “Força de trabalho e capacitação”), seria importante listar como esse objetivo pode ser alcançado, sob o risco de meramente recorrer a obviedades, sem indicar um caminho real.

O problema da segurança pública

Em complemento a estas considerações mais gerais, é importante notar pelo menos um problema substancial e específico que a EBIA carrega ao tratar do uso de IA na Segurança Pública.

A EBIA introduz estatística da pesquisa do Carnegie Endowment for International Peace sobre o uso de IA em sistemas de vigilância. O estudo objetivou trazer atenção e alarme para o uso de IAs pelo poder público na área de segurança pública, mas é citado apenas superficialmente para estabelecer a expansão da implementação desses sistemas.

Em relação especificamente à disseminação de sistemas de reconhecimento facial no Brasil, a EBIA cita estudo elaborado pelo Instituto Igarapé sobre a implementação de sistemas de reconhecimento facial (SRF). É conclusão fundamental do estudo citado que a adoção destes sistemas implicou na coleta de dados detalhados sobre indivíduos, antes mesmo da adoção da lei geral de proteção de dados (LGPD), e que o efeito da videovigilância na redução de crimes é limitado. Isto não é claramente descrito na exposição de motivos ou nas ações listadas nessa seção.

A EBIA tece algumas críticas aos potenciais efeitos perversos da implementação de SRFs, como a possibilidade de discriminação algoritmica e ineficiência de aplicações. No entanto, em suas ações estratégicas, delineia poucas formas efetivas de endereçamento e enfrentamento a estes problemas e corrobora a implementação, delegando as iniciativas de normatização e possíveis planejamentos necessários para a estruturação de sistemas seguros a outros "órgãos reguladores", sem sequer apontar de forma apropriada quais seriam estes (pp. 49-50).

Conclusão

A generalidade com que os temas são abordados nas ações estratégicas da EBIA, aliados à falta de um delineamento claro da estrutura de governança pretendida, prazos e metas, dão ao documento a feição de um primeiro passo tímido no caminho da regulação da IA.

Uma série de perguntas segue em aberto: quais as diretrizes técnicas e organizacionais para o enfrentamento de problemas atrelados à implementação de sistemas de IA? Quem será capaz de defini-las, revisá-las, e com que periodicidade? Como se dará a participação da sociedade? Que instrumentos de incentivo serão aplicados? Quais os setores prioritários?

Essas são questões sobre as quais a EBIA dá pistas, mas não respostas. Dado o longo processo de consulta pública, o conhecimento já existente e as experiências de outros países, era de se esperar um avanço mais significativo.

*As opiniões expressas neste artigo são de responsabilidade exclusiva do(s) autor(es), não refletindo necessariamente a posição institucional da FGV.

Do mesmo autor

Autor(es)

  • Walter Britto Gaspar

    Pesquisador no projeto CyberBRICS do Centro de Tecnologia e Sociedade da FGV Direito Rio. Advogado, graduado em Direito pela FGV em 2015. Mestre em Saúde Coletiva pelo Instituto de Medicina Social da UERJ (2017), estudando a interface entre inovação, propriedade intelectual e acesso a medicamentos. Bolsista da Fundação Botín no Programa de Formação para a Função Pública na América Latina (2013). Pesquisador pela Fiocruz e Shuttleworth Foundation em projeto relacionado a propriedade intelectual e acesso a medicamentos (2017). Coordenador Nacional da ONG Universities Allied for Essential Medicines (2013-2016). Designer Gráfico certificado pelo Istituto Europeo di Design (2018). Autor de “O que é Creative Commons? Novos modelos de direito autoral em um mundo mais criativo”.

  • Yasmin Curzi

    Pesquisadora do Centro de Tecnologia e Sociedade da Escola de Direito do Rio de Janeiro (FGV Direito Rio). Advogada e doutoranda no IESP/UERJ. Mestre em Ciências Sociais pela PUC-Rio, bacharela em Ciências Sociais e em Direito pela Fundação Getulio Vargas (FGV). Presta consultoria para mulheres vítimas de violência na ONG Soul Sisters.

Nosso website coleta informações do seu dispositivo e da sua navegação por meio de cookies para permitir funcionalidades como: melhorar o funcionamento técnico das páginas, mensurar a audiência do website e oferecer produtos e serviços relevantes por meio de anúncios personalizados. Para saber mais sobre as informações e cookies que coletamos, acesse a nossa Política de Cookies e a nossa Política de Privacidade.