Por que precisamos de IA que se explique

Índice:

Por que precisamos de IA que se explique
Por que precisamos de IA que se explique
Anonim

Princípios importantes

  • As empresas estão cada vez mais usando a IA que explica como ela obtém resultados.
  • O LinkedIn recentemente aumentou sua receita de assinaturas depois de usar IA que previu clientes em risco de cancelamento e descreveu como chegou às suas conclusões.
  • A Federal Trade Commission disse que a IA que não é explicável pode ser investigada.
Image
Image

Uma das novas tendências mais quentes em software pode ser a inteligência artificial (IA), que explica como ela alcança seus resultados.

Explainable AI está valendo a pena à medida que as empresas de software tentam tornar a AI mais compreensível. O LinkedIn recentemente aumentou sua receita de assinaturas depois de usar a IA que previu clientes em risco de cancelamento e descreveu como chegou às suas conclusões.

"A IA explicável é ser capaz de confiar na saída e entender como a máquina chegou lá", disse Travis Nixon, CEO da SynerAI e Chefe de Ciência de Dados, Serviços Financeiros da Microsoft, à Lifewire em uma entrevista por e-mail.

"'Como?' é uma questão colocada a muitos sistemas de IA, especialmente quando são tomadas decisões ou são produzidos resultados que não são ideais", acrescentou Nixon. "Desde tratar diferentes raças injustamente até confundir uma careca com uma bola de futebol, precisamos saber por que os sistemas de IA produzem seus resultados. Uma vez que entendemos o 'como', ele posiciona empresas e indivíduos para responder 'o que vem depois?'."

Conhecendo a IA

AI provou ser preciso e faz muitos tipos de previsões. Mas a IA geralmente é capaz de explicar como chegou às suas conclusões.

E os reguladores estão percebendo o problema de explicabilidade da IA. A Federal Trade Commission disse que a IA que não é explicável pode ser investigada. A UE está considerando a aprovação da Lei de Inteligência Artificial, que inclui requisitos para que os usuários possam interpretar previsões de IA.

O Linkedin está entre as empresas que acreditam que a IA explicável pode ajudar a aumentar os lucros. Antes, os vendedores do LinkedIn confiavam em seu conhecimento e passavam muito tempo vasculhando dados offline para identificar quais contas provavelmente continuariam fazendo negócios e em quais produtos poderiam estar interessados durante a próxima renovação de contrato. Para resolver o problema, o LinkedIn iniciou um programa chamado CrystalCandle que identifica tendências e ajuda os vendedores.

Em outro exemplo, Nixon disse que durante a criação de um modelo de definição de cotas para a força de vendas de uma empresa, sua empresa conseguiu incorporar IA explicável para identificar quais características apontavam para uma nova contratação de vendas bem-sucedida.

"Com este resultado, a administração desta empresa foi capaz de reconhecer quais vendedores colocar no 'fast track' e quais precisavam de coaching, tudo antes que surgissem grandes problemas", acrescentou.

Muitos usos para IA explicável

Explainable AI está sendo usada atualmente como uma verificação de intestino para a maioria dos cientistas de dados, disse Nixon. Os pesquisadores executam seu modelo por meio de métodos simples, garantem que não haja nada completamente fora de ordem e, em seguida, enviam o modelo.

"Isso ocorre em parte porque muitas organizações de ciência de dados otimizaram seus sistemas em torno do 'tempo sobre valor' como um KPI, levando a processos apressados e modelos incompletos", acrescentou Nixon.

Estou preocupado que a reação de modelos irresponsáveis possa colocar a indústria de IA de volta de forma séria.

As pessoas muitas vezes não são convencidas por resultados que a IA não consegue explicar. Raj Gupta, diretor de engenharia da Cogito, disse em um e-mail que sua empresa pesquisou clientes e descobriu que quase metade dos consumidores (43%) teria uma percepção mais positiva de uma empresa e IA se as empresas fossem mais explícitas sobre seu uso. da tecnologia.

E não são apenas os dados financeiros que estão recebendo uma ajuda da IA explicável. Uma área que está se beneficiando da nova abordagem são os dados de imagem, onde é fácil indicar quais partes de uma imagem o algoritmo considera essenciais e onde é fácil para um humano saber se essa informação faz sentido, Samantha Kleinberg, professora associada da Stevens Institute of Technology e especialista em IA explicável, disse à Lifewire por e-mail.

"É muito mais difícil fazer isso com um eletrocardiograma ou dados contínuos do monitor de glicose", acrescentou Kleinberg.

Nixon previu que a IA explicável seria a base de todos os sistemas de IA no futuro. E sem IA explicável, os resultados podem ser terríveis, disse ele.

"Espero que progridamos nessa frente o suficiente para considerar a IA explicável como garantida nos próximos anos e que olhemos para aquela época hoje surpresos que alguém fosse louco o suficiente para implantar modelos que não entendia, " ele adicionou."Se não encontrarmos o futuro dessa maneira, estou preocupado que a reação de modelos irresponsáveis possa fazer com que a indústria de IA recue de maneira séria."

Recomendado: