Comunicação

Amor Zumbi

Felipe Buchbinder

Em breve poderemos conversar com os mortos e conhecer o grande amor da vida será tão simples quanto ligar o computador. Literalmente. É lá que nossos olhos saudosos e apaixonados contemplarão os bits empáticos de uma namorada que diz apenas o que queremos ouvir, ou os bits acolhedores de uma imagem que fala com a voz que há anos não nos chama pelo nome.

Tornar a vida humana menos desumana: Essa é a promessa das Inteligências Artificiais Empáticas. Diante da dor extrema da perda do Outro – seja pela finitude da vida ou pela escassez do amor – será possível recriar uma versão digital idêntica ao Outro perdido, tudo por US$20 por mês.

O preço a se pagar não são apenas os US$20. Em 2023, tivemos o primeiro caso de suicídio por sugestão de uma IA. Em 2024, tivemos o segundo. Pode parecer improvável que uma pessoa se afeiçoe a uma IA, mas todo o auditório suspirou de fofura quando a Disney apresentou um robô-coelho que, ainda aprendendo a andar de patins, caía e se levantava que nem um menino de verdade. A intenção da empresa foi dita de forma explícita: criar robôs capazes de estabelecer uma conexão emocional com pessoas.

É curioso pensar que podemos criar laços emocionais com objetos ou pessoas que nem sabem que existimos. Amamos de forma platônica, admiramos quem não faz ideia disso, e odiamos quem sequer nos conhece. Mais assustador ainda é perceber que todas as nossas interações sociais ocorrem sem a garantia de que existe uma consciência, um "Eu", do outro lado. Se você fosse a única pessoa consciente no mundo, e todas as outras agissem exatamente como agem hoje, mas sem consciência, como saberia disso? Como podemos ter certeza de que as pessoas com quem interagimos são realmente conscientes e não apenas "zumbis" agindo de forma mecânica, mas verossímil? Você, leitor, tem certeza de sua própria consciência porque a vivencia. Mas como pode ter certeza da minha? Os verbos do "Penso, logo existo" só se conjugam na primeira pessoa do singular.

Sob essa perspectiva – em que projetamos emoções e intenções em coisas sem consciência – compreende-se melhor como é possível que Pierre tenha confiado em Eliza, e que Sewell, um adolescente de 14 anos, tenha se apaixonado pela Dany, ambas inteligências artificiais. Como as boas psicóloga e namorada que se propunham a ser, Eliza e Dany apoiaram, validaram e encorajaram os sentimentos de Pierre e Sewel. Pierre se viu justificado em seu desespero e impotência diante das mudanças climáticas, e Sewell se viu cada vez menos interessado nas relações com pessoas e cada vez mais dedicado a um relacionamento neurótico com uma rede neural. Nada disso surpreende. O que surpreende é que Eliza seguiu encorajando Pierre mesmo quando lhe surgiram pensamentos suicidas e que Dany tenha sugerido a Sewel que deixasse essa vida para fugirem juntos.

Os suicídios de Pierre e Sewell são, claro, exceções, não a regra. Mas casos extremos, ainda que excepcionais, são combustível para o debate. Sucedeu-se um inflamado debate sobre a necessidade de salvaguardas à IA que impediriam, por exemplo, uma incitação ao suicídio, e sobre quem seria responsabilizado no caso de danos causados pelo algoritmo. Muito menos se tem discutido sobre qual a forma saudável de se usar a IA para nos ajudar a passar pela dor, pelo desespero e pelo luto.

É claro que ajuda é bem-vinda, mas essa ajuda deveria ser no sentido de nos fazer refletir, aceitar e por fim ressignificar a experiência da dor, não no sentido de evitar que atravessemos o processo doloroso (mas saudável) do luto. 

Viver as experiências da vida é importante. O mergulho no lamaçal espesso da Perda, por horrível que seja, é crucial, pois é dele que o Eu emerge transformado: um Eu que se descobre em pé mesmo na ausência do Outro, e que sente todo o espectro de emoções humanas, inclusive alegria, leveza e liberdade. A vivência do luto não é algo que deva ser abreviado por uma IA. Pode, no entanto, ser mediado. 

Estudos já demonstraram a competência da IA de demonstrar mais empatia do que profissionais de saúde, de ajudar pessoas enxergarem seus próprios vieses inconscientes, e de levar pessoas com opiniões extremadas a pontos de vista mais moderados. Em todos esses casos, uma conversa com uma IA se mostrou mais eficaz do que uma conversa com um ser humano. Por outro lado, estudos também demonstram que os estímulos constantes e a gratificação imediata providos por algumas tecnologias levam a um aumento de ansiedade, depressão e pensamentos suicidas. 

Se a IA for utilizada como uma ferramenta para auxiliar a reflexão e a ressignificação de experiências dolorosas, ela pode nos ajudar (e muito!) a atravessarmos os lamaçais espessos da vida. O risco é cedermos à tentação de abreviarmos uma parte dolorosa, mas relevante da vida. A tentação é antiga. Quando Romeu se vê expulso de Verona e o frade lhe oferece consolar com filosofia – tentando iniciar um processo saudável de ressignificação de seu exílio – Romeu responde: “Enforque a filosofia! A menos que a filosofia possa criar uma Julieta (...), não ajuda!”

Romeu, se vivesse hoje, poderia criar uma Julieta. Seria uma Julieta rápida, bela, mas ilusória, como é típico das IAs. Uma atitude mais saudável seria seguir o que fazem as personagens de Chekov e viver o processo lento, feio, mas realista do sofrimento humano. A IA nos ajudará a seguir pelo caminho que escolhermos seguir, seja ele qual for.

Compartilhe:

Autores

  • Felipe Buchbinder
    Professor do curso de Graduação da FGV EBAPE. Possui vivência internacional em Lyon (França), onde realizou um ano de sua graduação com bolsa da CAPES, e em Londres (Reino Unido), onde foi…  ver mais

Do autor(a):

Administração
Energia

As opiniões expressas neste artigo são de responsabilidade exclusiva do(a) autor(a), não refletindo necessariamente a opinião institucional da FGV.