Inteligência Artificial no Mercado Editorial: Possibilidades e desafios éticos
O uso da IAG, e suas repercussões têm sido acompanhados nas mais diversas esferas, devido principalmente a facilidade que ela traz para produção de conteúdo e operacionalização das atividades de maneira automatizada.
Desde e o final de 2022, com o lançamento do ChatGPT, a Inteligência Artificial (IA) retornou com sua popularidade e sua utilização pelo público geral alcançou o seu ápice. Apesar da discussão não ser nova, os impactos que ela pode gerar, ainda mais levando em consideração o seu acesso quase que irrestrito, ainda é objetivo de estudo para os pesquisadores.
Antes de começarmos, cabe aqui uma pequena explicação do modelo de IA ao qual estamos nos referindo, que é a IA Generativa (IAG). Essa IA tem a capacidade de produzir conteúdo (texto, imagens e vídeos) através de demandas feitas pelo seu utilizador. Os exemplos mais populares dessas IAG’s são o Chat GPT e o Google Gemini.
O uso da IAG, e suas repercussões têm sido acompanhados nas mais diversas esferas, devido principalmente a facilidade que ela traz para produção de conteúdo e operacionalização das atividades de maneira automatizada. Um dos mercados mais impactados por essas novidades é o mercado editorial. Como veremos abaixo, a IA apesar de trazer várias facilidades ao trabalho, também coloca a nossa frente novos desafios e requer de seus profissionais, um olhar crítico e aprofundado sobre as inequalidades que ela pode produzir se utilizada de forma incorreta.
O mercado editorial, e aqui pretendo me referir a ele em todas as suas possíveis ramificações, não só relacionado aos grandes conglomerados editoriais de livros tradicionais, mas também à editoração cientifica e de conteúdo num geral, tem se beneficiado da utilização das IAG’s nas diversas atribuições que fazem parte do seu rol de atividades. Desde a geração automática de conteúdo, passando pela revisão gramatical e até a própria criação de ilustrações para publicação.
Algumas dessas tarefas, como a revisão gramatical, podem ser entediantes e dispendiosas, e a utilização de IA pode favorecer o trabalho e facilitar a rotina. Escrever um artigo científico e verificar se a normalização está de acordo com o solicitado pela revista é um empenho muitas vezes mais técnico do que intelectual. Para quem já se esforçou intelectual e criativamente para a elaboração de ideias e de conteúdo, ter que se preocupar com a normalização pode ser muitas vezes frustrante. Nesse contexto, as ferramentas de IA são um importante auxílio para o autor e revisores. Esse horizonte de utilização ainda pode ser ampliado se pensarmos nessas ferramentas como auxiliadoras no processo de tradução ou na geração de resumos, que podem ser avaliados posteriormente por um profissional qualificado.
Porém, as possibilidades que a IA traz para o trabalho editorial são bem maiores do que as que falamos até aqui. Esse horizonte ampliado de utilizações, se for usado indiscriminadamente, pode muitas vezes esbarrar em uma área cinzenta onde o que é ético ou não fica confuso. Quando utilizamos a ferramenta não para correção, mas para geração de conteúdo, é correto atribuir uma autoria que na verdade não existe? É esperado que não saibamos as fontes exatas do que colocamos para publicação? É bom senso que consideremos como abstração intelectual um resultado proveniente de uma ferramenta estatística sofisticada de prospecção de palavras que imitam o linguajar humano? Até que ponto podemos considerar uma ferramenta algorítmica como fonte de informação e de autonomia cientifica, criativa e intelectual?
Esses questionamentos, apesar de importantes, não abarcam nem a metade dos problemas que podemos ter com as IA’s. Essas ferramentas também apresentam (em seu atual estado da arte) diversas questões complexas sobre sua construção. Os modelos de aprendizado profundo de máquina (Deep Learning) possuem um enorme custo energético, e os recursos computacionais utilizados para treinar esses modelos produzem uma grande pegada de carbono. Além disso, questões intrínsecas da sua construção, como a opacidade algorítmica por trás dessas ferramentas e os próprios dados utilizados para alimentar e fomentar o aprendizado de máquina levantam questões relacionadas a privacidade e a problemas relacionados ao treinamento por dados enviesados e com potencial desinformativo.
A IA deve ser entendida como uma facilitadora para as atividades editoriais, e ser utilizada como os softwares de apoio no nosso dia a dia de trabalho. Ela precisa ser parte auxiliadora do processo editorial, e não o processo editorial em si. Realmente queremos renunciar à sensibilidade artística dos ilustradores para terceirizar esse serviço às ferramentas de IA? O quão nocivo seria quebrar o contrato implícito entre o autor e seu público, que espera as ler algo produzido por ele, e não por uma inteligência artificial?
Não existe uma solução fácil e nem definitiva quando tratamos do avanço da tecnologia de IA nas práticas editoriais. Assim como muitas das tecnologias disruptivas anteriores, ela vem consolidando seu espaço, e seu papel na otimização dessas práticas é inegável. Diante desse cenário, cabe a nós, como profissionais e cidadãos interessados, estabelecer os limites éticos de sua boa utilização, sempre tendo como norte a importância da sensibilidade artística e intelectual humana na produção de conteúdo.
*As opiniões expressas neste artigo são de responsabilidade exclusiva do(s) autor(es), não refletindo necessariamente a posição institucional da FGV.