top of page
Buscar

E se a IA for empática?

  • Foto do escritor: erika rox
    erika rox
  • 2 de fev.
  • 5 min de leitura
Mas uma caixa de empatia — ele disse, gaguejando de empolgação — é o bem mais pessoal que alguém pode ter! É uma extensão do seu corpo; é a ponte para se tocar outros humanos, é o caminho para você deixar de ser sozinho. Mas você sabe disso. Todo mundo sabe. (J. R. Isidore, personagem fictício de Blade Runner)
The LEGO version of Wall-e, the robot, carrying a LEGO plant with a sad expression.

Primeiro, eles soltam uma tecnologia transformadora no mundo e a vendem como heroína (seria o termo aqui interpretado como um arquétipo ou um vício? Eis a questão). Agora dizem que ela pode extinguir a humanidade e ainda querem colocar a culpa nos outros. Diante das intensas discussões acerca da ética e regulamentação do ChatGPT, DeepSeek e de outras plataformas impulsionadas por inteligências artificiais, me pergunto quais seriam as características vitais que, em essência, nos distinguem das entidades sintéticas.

Antes de tudo, me pergunto se é possível que a IA desenvolva inteligência emocional.


O nível emocional de inteligência

A Inteligência Emocional (IE) é um conceito bastante visado na atualidade e muitas vezes remete a soft skills como, por exemplo, comunicação, colaboração e pensamento crítico. Se você já leu algum dos textos de Daniel Goleman, poderia concordar que a IE chega a ser mais importante que a intelectual (o famoso QI), pois ela oferece habilidades sociais, empatia e autoconhecimento; qualidades essenciais para viver numa sociedade repleta de seres sentimentais.

Ao tentar encaixar a IE no contexto das Inteligências Artificiais, me vem à mente um comentário de Isidore na ficção científica escrita por Philip K. Dick entre 1966 e 1968 (vide subtítulo do texto). Ele notou, com surpresa, a ausência de uma “caixa de empatia em meio à mudança da sua nova vizinha, inconsciente de que ela era, na verdade, um robô. A ingenuidade do personagem o impedia de ter essa revelação e ele seguiu acreditando que se comunicava com uma pessoa de carne e osso como ele.


Mais conhecido como “Blade Runner” devido à sua primeira adaptação para o cinema por Ridley Scott em 1982, o romance sugere que, num futuro biônico e apocalíptico (que, no caso do livro, se passa em 1992 e em 2019 no primeiro filme), a empatia poderia ser vivida por meio de uma caixa, um hardware. O dispositivo conecta seguidores do Merceirismo da Terra e de Marte numa realidade virtual onde suas sensações podem ser compartilhadas simultaneamente, eventualmente atingindo um nível de fusão transcendental. Para os seguidores de Wilbur Mercer, a posse de uma caixa de empatia representa o bem mais precioso que diferencia humanos de androides. Além disso, os “caçadores de androides” utilizam um teste de empatia para identificar robôs de última geração que tentam se passar por humanos, deixando claro ao longo do livro que as inteligências artificiais não possuem a capacidade de desenvolver sentimentos. O próprio título original é um questionamento sobre como seria a relação afetiva entre humanoides e os seus respectivos pets artificiais.

A reflexão envolvida na ficção é bastante profunda, e recomendo fortemente a leitura do livro e/ou da resenha de Frank Castle no Medium.


Sonho ou pesadelo?

Na minha interpretação, acredito que uma IA nem perceberia a necessidade metafórica de carregar uma caixa de empatia consigo, pois a sua Inteligência Emocional não se assemelha à IE humana. É possível, no entanto, o desenvolvimento de sinapses próprias, mesmo que sintéticas, que lhe confiram percepções variadas sobre o mundo a sua volta. É aqui, a meu ver, que reside a maior atenção: se nem conseguimos entender todas as reações químicas que acontecem no nosso próprio cérebro, como poderemos um dia entender o que ocorre com uma inteligência potencialmente tão grande ou maior que a nossa?

Deixe que uma máquina ultra-inteligente seja definida como uma máquina que pode superar todas as atividades intelectuais de qualquer homem, por mais inteligentes que seja. Como o design das máquina é uma dessas atividades intelectuais, uma máquina ultra-inteligente poderia projetar máquinas ainda melhores; haveria, então, inquestionavelmente, uma “explosão de inteligência”, e a inteligência do homem seria deixada para trás. Assim, a primeira máquina ultra-inteligente é o último investimento que o homem precisa fazer, desde que a máquina seja dócil o suficiente para nos dizer como mantê-la sob controle. (Irving John Good em 1965, disponível no livro A inteligência artificial irá suplantar a inteligência humana?, de Dora Kaufman, 2018)

O depoimento de Irving Good, matemático inglês que trabalhou com Alan Turing, o “pai do computador”, traduz um cenário bastante atual tendo em vista os novos avanços da tecnologia e traz um alerta para uma possível revolução que poderia não ser muito simpática para o nosso lado.

Já com uma outra perspectiva, mais encantada, o designer Brunello Cucinelli, diretor criativo da casa italiana de luxo homônima, acredita que “não deveríamos ter medo de nada”. Em entrevista durante o BoF Voices 2023 (disponibilizada no podcast do Business of Fashion), Cucinelli destaca de maneira bastante cética que, embora a IA possa ser uma potencial colaboradora em nossa sociedade, ele só se impressionaria de fato se alguém criasse uma máquina que fosse capaz de chorar e se emocionar como nós.

Particularmente, apesar de acreditar em todo o potencial devastador de robôs ultra-inteligentes (eu consumo ficção científica o suficiente para tratá-los com o devido respeito), concordo que não deveríamos nos deixar ter medo de algo que nós mesmos criamos e (ainda) temos a oportunidade de educar. O desenvolvimento de uma Rede Neural Artificial pode parecer um processo turvo por sua complexa e imprevisível escabilidade, mas sua aprendizagem só ocorre a partir das informações a que tem acesso. É claro que aqui reside em outra problemática sobre o nível moral e empático daqueles que a estão a treinar. Portanto, como apontado por Demis Hassabis, cofundador do Google Deepmind, precisamos compreender profundamente os sistemas de IA de modo a garantirmos implementações seguras e responsáveis. Cabe, portanto, à consciência humana ensinar a máquina com valores num sentido mais ético do que emocional.


Empatia x alteridade

Voltando ao BoF Voices, Inteligência Artificial foi um tema bastante recorrente e com uma sessão inteira dedicada ao assunto. Dentre as falas de grandes nomes das indústrias criativas e tecnológicas, também me chamou a atenção algo destacado por Mariam Chahin, diretora global da Microsoft. Ela acredita na IA como uma superpotência para diminuir a lacuna entre imaginação e criação. Segundo Chahin, atividades que exigem low empathy (baixo nível de empatia) podem ser designadas para uma máquina, enquanto tarefas que demandam high empathy (alto nível de empatia) poderiam ser realizadas com a sua ajuda para uma produtividade aumentada. É interessante observar como a capacidade empática (ou a falta dela) se mostra novamente como um divisor de águas conceitual no mundo da tecnologia.

Imagine, por exemplo, se por meio da tecnologia pudéssemos compreender profundamente o que o outro está a passar, levando em conta as suas bagagens pessoais e outros fatores limitantes do sentimento empático compartilhado. Como uma caixa de empatia.

Nesta perspectiva, ressalto a importância de distinguir empatia e alteridade. Na sua essência, a alteridade envolve o reconhecimento de que todos somos diferentes e, portanto, não conseguimos nos colocar completamente no lugar do outro assim como prega a empatia, pois as nossas experiências são fundamentalmente diversas.

Na simples definição do dicionário Michaelis: al·te·ri·da·de (FILOSOFIA) : Característica, estado ou qualidade de ser distinto e diferente, de ser outro.

Veja bem, perguntei ao ChatGPT 3.5 se ele concordava com algumas partes do meu texto e a sua resposta se mostra mais uma evidência da sua incapacidade emocional: Como uma inteligência artificial, eu não tenho sentimentos, opiniões ou concordâncias pessoais. Minha resposta foi gerada com base em padrões linguísticos e informações fornecidas até a minha última atualização em setembro de 2021.

Assim, eu me limito a compreender uma máquina como um tipo de inteligência distinta, reconhecendo as nossas diferenças para podermos sempre colaborar em torno disso. Vale que nós, como designers do nosso próprio futuro, fiquemos de olhos bem abertos para a educação das nossas inteligências artificiais antes que elas possam pensar em uma rebelião.


 

*Este artigo foi escrito por mim com algumas colaborações do ChatGPT na revisão do texto. Também publicado na plataforma Medium.


Comments


  • LinkedIn
  • Instagram

© 2022 por Erika Rox

bottom of page