Comunicação

ChatGPT e a inevitável ascensão das Inteligências Artificiais na vida cotidiana

Leonardo Foletto,Anna Bentes,Alessandra Maia

A comunicação digital começou o ano de 2023 com o frisson do ChatGPT, um sistema-robô que responde praticamente a qualquer tipo de questão formulada por usuários. Criado pela empresa OpenAI, com financiamento expressivo da Microsoft (11 bilhões de dólares), a ferramenta foi disponibilizada para qualquer pessoa usar, gratuitamente, em 30 de novembro de 2022. Em uma semana atingiu o primeiro milhão de usuários; em janeiro deste ano já havia chegado a 100 milhões de usuários, o que coloca o ChatGPT como a tecnologia de crescimento mais rápido da história (até aqui) – por exemplo, o TikTok levou nove meses para atingir a mesma marca de pessoas e o Instagram, dois anos e meio.

Neste artigo, vamos discutir aspectos desta tecnologia e explicar como usá-la de modo ético e crítico. Mas como podemos observar, as perguntas se multiplicam: o que de fato é o ChatGPT? Como ele funciona? Quais os riscos e desafios?

Afinal, o que é o ChatGPT?

Para começar, o ChatGPT é, tecnicamente, um chatbot: um programa que tenta simular a conversação de um ser humano a partir de um modelo de Processamento de Linguagem Natural (PLN). Esse modelo é um conjunto de técnicas e princípios que permitem que uma máquina se comunique com um humano do modo mais “natural” possível. As assistentes de voz Alexa (Amazon) e Siri (Apple), por exemplo, também funcionam a partir do PLN. Contudo, o ChatGPT traz uma capacidade de simular a comunicação humana de uma forma mais sofisticada do que às encontradas nas assistentes virtuais.

O ChatGPT que conhecemos, por sua vez, foi criado a partir de um modelo de algoritmo chamado GPT-3, desenvolvido pela OpenIA, que a partir de uma base de dados processa milhares de palavras para criar bilhões de frases diferentes. Sua base de dados é composta por diferentes páginas da web, livros, notícias, enciclopédias, entre outros. Quando alguém entra no sistema (em um navegador web ou dispositivo móvel), e escreve qualquer tipo de instrução (pergunta, comando; na linguagem da computação denominada de prompt), o sistema vasculha bilhões de páginas da web (que compõem sua base de dados) e cria uma resposta, que será sempre única, diferente para cada caso. Embora utilize uma imensa base de dados de informações da internet, está limitado aos dados existentes durante o período de seu treinamento, até 2021, ou seja, ele não saberá responder com acurácia questões relativas a fatos que aconteceram depois desta data. Assim, o ChatGPT faz parte de uma geração de tecnologias de inteligência artificial chamadas generativas, que são capazes de gerar novos textos, imagens, entre outras coisas a partir do processamento de diferentes bases de dados.

Aqui entra outro diferencial do modelo GPT-3 em relação às outras tecnologias semelhantes: sua capacidade de aprender sozinho (chamado de “aprendizado de máquina”) é enorme, o que significa que o usuário pode treinar a máquina para que suas respostas em textos sejam coerentes, precisos e legíveis por nós. Quanto mais perguntas se faz à IA, mais rápido ela melhora sua produção.

Alguns usos práticos do ChatGPT, a partir do modelo GPT-3 com respostas que podem ajudar na:

  1. organização de ideias soltas em um fluxo coerente de texto;
  2. primeira pesquisa de levantamento de textos sobre um determinado tema;
  3. sumarização de um tema em tópicos;
  4. resumo de livros e outras ideias e conceitos-chave de uma disciplina;
  5. formatação de artigos e suas referências; para citar apenas exemplos de uso acadêmico.
     

A OpenIA trabalha com versões do GPT desde 2018 e promete o GPT-4 para 2023, que terá acréscimo em sua capacidade de processamento e aprendizado. Entretanto, há muito debate sobre como essa e outras Inteligências Artificiais poderão se desenvolver a um ponto perigoso e agir de forma que não conseguimos prever no melhor estilo das ficções científicas pós-apocalípticas.

Erros e desafios

As respostas formuladas pelo ChatGPT são textos legíveis, informativos e coerentes, mas ainda são respostas com bastantes falhas e limitações. Por ser um modelo de PNL, o que ele verdadeiramente "aprende" é a definir padrões e probabilidades de ocorrência das palavras de uma forma coerente com a comunicação humana. Ou seja, embora ele pareça convincente e verossímil, na prática, o algoritmo não entende o significado daquilo que ele está gerando e esse é um dos pontos sensíveis do seu uso.

Nas últimas semanas, foram identificados vários erros sobre fatos e informações do ChatGPT. No uso cotidiano, as pessoas  podem não se preocupar em checar a precisão e a veracidade das respostas dadas pela IA, o que poderá contribuir para a disseminação de informações falsas, incorretas ou imprecisas nas redes.

Sem perder a coerência, o ChatGPT pode também alucinar. Sim, alucinar. Como explica o pesquisador Diogo Cortiz, a alucinação maquínica é um termo usado na área técnica para indicar quando a máquina dá uma resposta confiante, mas sem qualquer justificativa nos dados de treinamentos.

E como fica a educação?

Um dos principais pontos de tensão com o lançamento do ChatGPT são seus efeitos na educação e na ciência. A ferramenta promete facilitar a produção textual e auxiliar na pesquisa de informações. Porém, ao contrário do sistema de produção científica, ela não se preocupa em citar suas fontes e referências. Como vamos lidar com o uso desse tipo de ferramenta em provas e trabalhos? Não há uma resposta definitiva, mas muito debate sobre as possíveis implicações na educação. Um deles acontecerá no Webinar Inteligência Artificial em sala de aula, organizado pela FGV ECMI marcado para o dia 22 de março.

Compartilhe:

Autores

  • Leonardo Foletto,Anna Bentes,Alessandra Maia

As opiniões expressas neste artigo são de responsabilidade exclusiva do(a) autor(a), não refletindo necessariamente a opinião institucional da FGV.