Princípios importantes
- Programas de inteligência artificial como o Cogito tentam ensinar empatia aos humanos ao lidar com os clientes.
- Especialistas discordam sobre se é possível uma máquina ensinar empatia às pessoas ou se é simplesmente encontrar pontos de dados.
- Alguns especialistas também estão preocupados que ensinar a empatia da IA possa roubar a humanidade dessa emoção.
Imagine que você está trabalhando em um call center e um cliente liga. Você responde, e imediatamente, as coisas começam a ir mal. O cliente está com raiva e as tensões aumentam.
Você começa a dizer coisas das quais pode se arrepender mais tarde. De repente, uma mensagem aparece na tela do computador. "Dica de empatia - pense em como o cliente está se sentindo. Tente se relacionar."
Não é uma pessoa real lhe dizendo o que fazer. É uma mensagem do Cogito, um programa de inteligência artificial projetado para ajudar os trabalhadores a ter empatia com os chamadores frustrados e aumentar o desempenho. Cogito é um de um número crescente de programas de IA que estão tentando ensinar empatia aos humanos.
Há uma óbvia ironia aqui. Os cientistas humanos vêm tentando há décadas fazer computadores mais realistas. Agora, as máquinas estão nos dizendo como devemos nos comportar. Mas o software pode realmente nos ensinar a ser mais empáticos? É uma questão que pode ter implicações profundas à medida que a inteligência artificial começa a permear a vida cotidiana.
IA imita o comportamento humano
Do ponto de vista técnico, é claro que a IA pode pegar pistas sobre como os humanos se sentem e fornecer feedback.
"Os sistemas de IA e aprendizado de máquina são muito bons para encontrar padrões em dados ", disse Adam Poliak, pós-doutorando em ciência da computação no Barnard College, em uma entrevista por e-mail.
"Se dermos a uma IA muitos exemplos de texto empático, a IA poderá descobrir padrões e pistas que evocam ou demonstram empatia."
A IA pode ser programada para quebrar alguns dos comportamentos humanos que acompanham a empatia e lembrar os humanos de realizá-los, mas isso não é ensinar empatia.
IA que analisa as reações humanas pode ajudar a preencher a lacuna crescente entre as pessoas à medida que nos comunicamos digitalmente, disse Bret Greenstein, especialista em IA da Cognizant Digital Business, em uma entrevista por e-mail.
"No último ano, vídeo, voz e mensagens em tempo real cresceram mais rápido do que qualquer um poderia imaginar, e com isso vieram grandes desafios para criar relacionamentos verdadeiramente empáticos sem realmente passar tempo físico com as pessoas", ele adicionado.
AI pode ajudar a analisar e avaliar características como tom e emoção na fala, disse Greenstein. "Isso pode ajudar a pessoa que recebe as comunicações a entender melhor o que foi dito e ajuda a pessoa a 'falar', mostrando como as mensagens podem ser interpretadas", acrescentou.
Enquanto as empresas estão correndo para lucrar com softwares de treinamento de IA como o Cogito, a questão de saber se a IA pode ensinar empatia aos humanos permanece em aberto. E a resposta pode ter tanto a ver com filosofia quanto com tecnologia.
Ilia Delio é teóloga da Universidade Villanova cujo trabalho se concentra na interseção da fé e da ciência. Ela acredita que a IA pode ensinar empatia.
Delio apontou que uma equipe do MIT construiu robôs que podem imitar emoções humanas como felicidade, tristeza e compaixão. "Enquanto as emoções robóticas são programadas, os robôs podem interagir com humanos e assim estabelecer ou reforçar padrões neurais", disse ela.
Pode uma máquina entender a empatia?
Especialistas definem pelo menos três formas de empatia, todas envolvem a capacidade de entender e se relacionar com outra pessoa, disse Karla Erickson, socióloga do Grinnell College em Iowa e autora do livro Messy Humans: A Sociology of Relações Humano/Máquina, que explora nossas relações com a tecnologia.
"Relacionamento não é algo que a IA possa fazer, e é a base da empatia", disse Erickson em uma entrevista por e-mail.
"A IA pode ser programada para quebrar alguns dos comportamentos humanos que acompanham a empatia e lembrar os humanos de realizá-los, mas isso não é ensinar empatia. Relacionar-se, especialmente em termos de empatia, exigiria que o ouvinte tivesse a contexto necessário para se relacionar - com isso, quero dizer que a 'vida' de uma IA não inclui perda, saudade, esperança, dor ou morte."
No entanto, os especialistas discordam sobre se a IA pode nos ensinar a ter empatia. Parte do problema é que nem todos concordam sobre o que significa "empatia" ou "IA". O termo inteligência artificial é muito usado, mas atualmente não é o tipo de inteligência que consideramos humana.
Isso é puro trabalho de engenharia, e não tenho a ilusão de que a IA em questão tenha emoções ou entenda genuinamente emoções.
"As "pistas de empatia" não têm nada a ver com empatia", disse Michael Spezio, professor de psicologia, neurociência e ciência de dados no Scripps College, em uma entrevista por e-mail.
"Eles são sugestões de vozes que avaliadores humanos classificaram como vozes de pessoas irritadas/irritadas. Então, é apenas usar a experiência humana em um modelo matemático e, em seguida, afirmar que o modelo baseado na experiência humana é Inteligente. Abordagens limitadas de aprendizado de máquina como essa geralmente são anunciadas como IA sem serem inteligentes."
No Rensselaer Polytechnic Institute, o laboratório de Selmer Bringsjord está construindo modelos matemáticos da emoção humana. A pesquisa pretende criar uma IA que possa pontuar alto em testes de inteligência emocional e aplicá-los a humanos. Mas Bringsjord, um especialista em IA, diz que qualquer ensino que a IA faça é inadvertido.
"Mas isso é puro trabalho de engenharia, e não tenho a ilusão de que a IA em questão tenha emoções ou entenda genuinamente emoções", disse ele em uma entrevista por e-mail.
O que pode dar errado?
Embora empresas como a Cogito vejam um futuro brilhante de IA treinando humanos, outros observadores são mais cautelosos.
Supportiv, um serviço de saúde mental online, usa a IA para encaminhar cada usuário, com base em qualquer pensamento que expressem, em tempo real, para um grupo de suporte de colegas específico para um tópico que se reúne dinamicamente para usuários com problemas semelhantes.
Cada grupo tem um moderador humano "super-poderoso" que mantém o bate-papo baseado em texto seguro e livre de trolls e pode trazer à tona, novamente por meio da IA, recursos relevantes, recomendações e referências diretamente na conversa do grupo. Usando IA, o Supportiv treina seus moderadores para serem peritos em identificar a intensidade das necessidades emocionais.
"A empatia é um músculo que construímos", disse Zara Dana, cientista de dados da Supportiv, em entrevista por e-mail.
"Se começarmos a usar uma muleta para andar, nossos músculos vão atrofiar. Não posso deixar de me perguntar, um trabalhador dependente se sentiria confiante se o sistema de IA não estivesse online um dia? trabalho de forma eficaz? Quais são os efeitos de longo prazo sobre os trabalhadores? Como eles lidariam com situações sociais complexas onde a IA está ausente?"
Mesmo que o uso da IA para ensinar empatia funcione, o que acontece quando começamos a confiar demais na IA para treinar emoções? Uma possível desvantagem é que os humanos podem se tornar mais apegados aos robôs do que a outras pessoas porque os robôs não podem escolher contra seu programa, destacou Delio.
"A capacidade humana de livre arbítrio coloca a agência humana em uma posição mais ambígua", disse Delio. "Uma pessoa pode ser compassiva um dia e implacável no dia seguinte; um robô permanecerá consistentemente compassivo a menos que seja treinado para fazer o contrário."
Há muita coisa que pode dar errado se a IA ensinar os humanos a se comportarem como pessoas, dizem os especialistas.
Evoluímos para ser animais sociais, e nossa empatia é fundamental para nossa capacidade de nos conectarmos com os outros e nos preocuparmos com os coletivos aos quais pertencemos.
"Sem supervisão humana, o aluno pode aprender algo absolutamente maluco", disse Bringsjord.
"Tom e tom de voz são meros correlatos comportamentais, sem qualquer conteúdo. Dólares para donuts minha voz enquanto ensino na sala de aula seria lido por muitos… como uma indicação de que estou chateado, enquanto na realidade, eu' sou apenas apaixonado e no mínimo preciso de empatia."
Se o treinamento de IA de humanos florescer, podemos confiar nele. E isso não é necessariamente uma coisa boa.
"Esse treinamento desvaloriza as habilidades humanas, que são consideráveis, e desloca a atenção para a IA como se fossem eles os especialistas", disse Erickson."Nós evoluímos para ser animais sociais, e nossa empatia é fundamental para nossa capacidade de nos conectarmos com os outros e nos importarmos com os coletivos aos quais pertencemos."