Princípios importantes
- Os pesquisadores criaram técnicas que permitem aos usuários classificar os resultados do comportamento de um modelo de aprendizado de máquina.
- Especialistas dizem que o método mostra que as máquinas estão alcançando a capacidade de pensamento dos humanos.
- Os avanços na IA podem acelerar o desenvolvimento da capacidade dos computadores de entender a linguagem e revolucionar a maneira como a IA e os humanos interagem.
Uma nova técnica que mede o poder de raciocínio da inteligência artificial (IA) mostra que as máquinas estão alcançando os humanos em suas habilidades de pensar, dizem os especialistas.
Pesquisadores do MIT e da IBM Research criaram um método que permite ao usuário classificar os resultados do comportamento de um modelo de aprendizado de máquina. A técnica deles, chamada de Interesse Compartilhado, incorpora métricas que comparam quão bem o pensamento de um modelo corresponde ao das pessoas.
"Hoje, a IA é capaz de alcançar (e, em alguns casos, exceder) o desempenho humano em tarefas específicas, incluindo reconhecimento de imagem e compreensão de linguagem", Pieter Buteneers, diretor de engenharia em aprendizado de máquina e IA da comunicação empresa Sinch, disse à Lifewire em uma entrevista por e-mail. "Com o processamento de linguagem natural (NLP), os sistemas de IA podem interpretar, escrever e falar idiomas tão bem quanto os humanos, e a IA pode até ajustar seu dialeto e tom para se alinhar com seus pares humanos."
Espelhos Artificiais
A IA geralmente produz resultados sem explicar por que essas decisões estão corretas. E as ferramentas que ajudam os especialistas a entender o raciocínio de um modelo geralmente fornecem apenas insights, apenas um exemplo de cada vez. A IA geralmente é treinada usando milhões de entradas de dados, tornando difícil para um humano avaliar decisões suficientes para identificar padrões.
Em um artigo recente, os pesquisadores disseram que o Interesse Compartilhado pode ajudar um usuário a descobrir tendências na tomada de decisão de um modelo. E esses insights podem permitir que o usuário decida se um modelo está pronto para ser implantado.
“Ao desenvolver o Shared Interest, nosso objetivo é poder ampliar esse processo de análise para que você possa entender em um nível mais global qual é o comportamento do seu modelo”, Angie Boggust, coautora do artigo, disse no comunicado à imprensa.
Shared Interest usa uma técnica que mostra como um modelo de aprendizado de máquina tomou uma decisão específica, conhecido como métodos de saliência. Se o modelo estiver classificando imagens, os métodos de saliência destacam áreas de uma imagem que são importantes para o modelo quando ele toma sua decisão. O Shared Interest funciona comparando métodos de saliência com anotações geradas por humanos.
Pesquisadores usaram o Interesse Compartilhado para ajudar um dermatologista a determinar se ele deve confiar em um modelo de aprendizado de máquina projetado para ajudar a diagnosticar o câncer a partir de fotos de lesões de pele. O Interesse Compartilhado permitiu que o dermatologista visse rapidamente exemplos de previsões corretas e incorretas do modelo. O dermatologista decidiu que não podia confiar no modelo porque ele fazia muitas previsões com base em artefatos de imagem em vez de lesões reais.
“O valor aqui é que, usando o Shared Interest, podemos ver esses padrões surgirem no comportamento do nosso modelo. Em cerca de meia hora, o dermatologista conseguiu decidir se confia ou não no modelo e se deve ou não implantá-lo”, disse Boggust.
O raciocínio por trás da decisão de um modelo é importante tanto para o pesquisador de aprendizado de máquina quanto para o tomador de decisão.
Medindo o Progresso
O trabalho dos pesquisadores do MIT pode ser um passo significativo para o progresso da IA em direção à inteligência em nível humano, disse Ben Hagag, chefe de pesquisa da Darrow, uma empresa que usa algoritmos de aprendizado de máquina, ao Lifewire em uma entrevista por e-mail.
“O raciocínio por trás da decisão de um modelo é importante tanto para o pesquisador de aprendizado de máquina quanto para o tomador de decisão”, disse Hagag. “O primeiro quer entender o quão bom é o modelo e como ele pode ser melhorado, enquanto o segundo quer desenvolver um senso de confiança no modelo, então eles precisam entender por que esse resultado foi previsto.”
Mas Hagag advertiu que a pesquisa do MIT é baseada na suposição de que entendemos ou podemos anotar a compreensão humana ou o raciocínio humano.
“No entanto, existe a possibilidade de que isso não seja preciso, então é necessário mais trabalho para entender a tomada de decisão humana”, acrescentou Hagag.
Os avanços na IA podem acelerar o desenvolvimento da capacidade dos computadores de entender a linguagem e revolucionar a maneira como a IA e os humanos interagem, disse Buteneers. Os chatbots podem entender centenas de idiomas ao mesmo tempo, e os assistentes de IA podem escanear corpos de texto em busca de respostas a perguntas ou irregularidades.
“Alguns algoritmos podem até identificar quando as mensagens são fraudulentas, o que pode ajudar empresas e consumidores a eliminar mensagens de spam”, acrescentou Buteneers.
Mas, disse Buteneers, a IA ainda comete alguns erros que os humanos nunca cometeriam. “Embora alguns se preocupem que a IA substituirá os empregos humanos, a realidade é que sempre precisaremos de pessoas trabalhando ao lado de bots de IA para ajudar a mantê-los sob controle e manter esses erros à distância, mantendo um toque humano nos negócios”, acrescentou.