ChatGPT e a inevitável ascensão das Inteligências Artificiais na vida cotidiana

Neste artigo, vamos discutir aspectos desta tecnologia e explicar como usá-la de modo ético e crítico. Mas como podemos observar, as perguntas se multiplicam: o que de fato é o ChatGPT? Como ele funciona? Quais os riscos e desafios?

Comunicação
06/03/2023
Leonardo Foletto
Anna Bentes
Alessandra Maia

A comunicação digital começou o ano de 2023 com o frisson do ChatGPT, um sistema-robô que responde praticamente a qualquer tipo de questão formulada por usuários. Criado pela empresa OpenAI, com financiamento expressivo da Microsoft (11 bilhões de dólares), a ferramenta foi disponibilizada para qualquer pessoa usar, gratuitamente, em 30 de novembro de 2022. Em uma semana atingiu o primeiro milhão de usuários; em janeiro deste ano já havia chegado a 100 milhões de usuários, o que coloca o ChatGPT como a tecnologia de crescimento mais rápido da história (até aqui) – por exemplo, o TikTok levou nove meses para atingir a mesma marca de pessoas e o Instagram, dois anos e meio.

Neste artigo, vamos discutir aspectos desta tecnologia e explicar como usá-la de modo ético e crítico. Mas como podemos observar, as perguntas se multiplicam: o que de fato é o ChatGPT? Como ele funciona? Quais os riscos e desafios?

Afinal, o que é o ChatGPT?

Para começar, o ChatGPT é, tecnicamente, um chatbot: um programa que tenta simular a conversação de um ser humano a partir de um modelo de Processamento de Linguagem Natural (PLN). Esse modelo é um conjunto de técnicas e princípios que permitem que uma máquina se comunique com um humano do modo mais “natural” possível. As assistentes de voz Alexa (Amazon) e Siri (Apple), por exemplo, também funcionam a partir do PLN. Contudo, o ChatGPT traz uma capacidade de simular a comunicação humana de uma forma mais sofisticada do que às encontradas nas assistentes virtuais.

O ChatGPT que conhecemos, por sua vez, foi criado a partir de um modelo de algoritmo chamado GPT-3, desenvolvido pela OpenIA, que a partir de uma base de dados processa milhares de palavras para criar bilhões de frases diferentes. Sua base de dados é composta por diferentes páginas da web, livros, notícias, enciclopédias, entre outros. Quando alguém entra no sistema (em um navegador web ou dispositivo móvel), e escreve qualquer tipo de instrução (pergunta, comando; na linguagem da computação denominada de prompt), o sistema vasculha bilhões de páginas da web (que compõem sua base de dados) e cria uma resposta, que será sempre única, diferente para cada caso. Embora utilize uma imensa base de dados de informações da internet, está limitado aos dados existentes durante o período de seu treinamento, até 2021, ou seja, ele não saberá responder com acurácia questões relativas a fatos que aconteceram depois desta data. Assim, o ChatGPT faz parte de uma geração de tecnologias de inteligência artificial chamadas generativas, que são capazes de gerar novos textos, imagens, entre outras coisas a partir do processamento de diferentes bases de dados.

Aqui entra outro diferencial do modelo GPT-3 em relação às outras tecnologias semelhantes: sua capacidade de aprender sozinho (chamado de “aprendizado de máquina”) é enorme, o que significa que o usuário pode treinar a máquina para que suas respostas em textos sejam coerentes, precisos e legíveis por nós. Quanto mais perguntas se faz à IA, mais rápido ela melhora sua produção.

Alguns usos práticos do ChatGPT, a partir do modelo GPT-3 com respostas que podem ajudar na:

  1. organização de ideias soltas em um fluxo coerente de texto;
  2. primeira pesquisa de levantamento de textos sobre um determinado tema;
  3. sumarização de um tema em tópicos;
  4. resumo de livros e outras ideias e conceitos-chave de uma disciplina;
  5. formatação de artigos e suas referências; para citar apenas exemplos de uso acadêmico.
     

A OpenIA trabalha com versões do GPT desde 2018 e promete o GPT-4 para 2023, que terá acréscimo em sua capacidade de processamento e aprendizado. Entretanto, há muito debate sobre como essa e outras Inteligências Artificiais poderão se desenvolver a um ponto perigoso e agir de forma que não conseguimos prever no melhor estilo das ficções científicas pós-apocalípticas.

Erros e desafios

As respostas formuladas pelo ChatGPT são textos legíveis, informativos e coerentes, mas ainda são respostas com bastantes falhas e limitações. Por ser um modelo de PNL, o que ele verdadeiramente "aprende" é a definir padrões e probabilidades de ocorrência das palavras de uma forma coerente com a comunicação humana. Ou seja, embora ele pareça convincente e verossímil, na prática, o algoritmo não entende o significado daquilo que ele está gerando e esse é um dos pontos sensíveis do seu uso.

Nas últimas semanas, foram identificados vários erros sobre fatos e informações do ChatGPT. No uso cotidiano, as pessoas  podem não se preocupar em checar a precisão e a veracidade das respostas dadas pela IA, o que poderá contribuir para a disseminação de informações falsas, incorretas ou imprecisas nas redes.

Sem perder a coerência, o ChatGPT pode também alucinar. Sim, alucinar. Como explica o pesquisador Diogo Cortiz, a alucinação maquínica é um termo usado na área técnica para indicar quando a máquina dá uma resposta confiante, mas sem qualquer justificativa nos dados de treinamentos.

E como fica a educação?

Um dos principais pontos de tensão com o lançamento do ChatGPT são seus efeitos na educação e na ciência. A ferramenta promete facilitar a produção textual e auxiliar na pesquisa de informações. Porém, ao contrário do sistema de produção científica, ela não se preocupa em citar suas fontes e referências. Como vamos lidar com o uso desse tipo de ferramenta em provas e trabalhos? Não há uma resposta definitiva, mas muito debate sobre as possíveis implicações na educação. Um deles acontecerá no Webinar Inteligência Artificial em sala de aula, organizado pela FGV ECMI marcado para o dia 22 de março.

*As opiniões expressas neste artigo são de responsabilidade exclusiva do(s) autor(es), não refletindo necessariamente a posição institucional da FGV.

Do mesmo autor

Autor(es)

  • Leonardo Foletto

    Pesquisador da Escola de Comunicação Mídia e Informação (FGV ECMI) e integrante do capítulo brasileiro do Creative Commons. É jornalista (UFSM), mestre (UFSC) e doutor em comunicação (UFRGS), com pós-doutorado na USP, trabalha com comunicação e cultura digital desde 2008 em diversos projetos e organizações. Foi professor visitante na PUCSP, PUCRS e Unisinos. Seu último livro é "A Cultura é Livre”, lançado em 2021.

  • Anna Bentes

    Professora adjunta na FGV ECMI, édoutora e mestre em Comunicação e Cultura pela UFRJ e formada em Psicologia pela UFRJ. É autora do livro "Quase um tique: economia da atenção, vigilância e espetáculo em uma rede social'', pela editora UFRJ (2021), e Membro do Conselho Diretivo da Rede Latino Americana de Estudos sobre Vigilância, Tecnologia e Sociedade (LAVITS).Atualmente, é Fellow da Derechos Digitales e colunista do Terra Byte, onde fala sobre temas relacionados à tecnologia e comportamento. Em suas pesquisas, está interessada na intersecção entre Comunicação, Psicologia e Mídias Digitais. 

  • Alessandra Maia

    É professora da FGV ECMI e atua como Pesquisadora de Game Design e Studies no Cubo de Inovação/FGV, o qual coordena, onde trabalha com pesquisas práticas, experimentais e empíricas com Tecnologias Digitais. Seus interesses de pesquisa incluem conceitos como Inovação, Criatividade e Invenção em produtos da cultura digital, tendo-os como lócus lúdico de desenvolvimento sensorial, social e de aprendizagem. É doutora em Comunicação, com formação em Jornalismo e Relações Públicas, pela UERJ.

Últimos artigos

Esse site usa cookies

Nosso website coleta informações do seu dispositivo e da sua navegação e utiliza tecnologias como cookies para armazená-las e permitir funcionalidades como: melhorar o funcionamento técnico das páginas, mensurar a audiência do website e oferecer produtos e serviços relevantes por meio de anúncios personalizados. Para mais informações, acesse o nosso Aviso de Cookies e o nosso Aviso de Privacidade.