Princípios importantes
- Uma empresa de software está coletando informações de mídia social para criar perfis que podem ser usados para identificar pessoas que representam riscos de segurança.
- A Voyager Labs fechou um acordo significativo com uma agência do governo japonês.
- Mas especialistas alertam que o software de previsão de IA pode ser enganado.
Suas informações online podem ser usadas para prever se você pode cometer um crime.
A Voyager Labs está coletando informações de mídia social para criar perfis que podem ser usados para identificar pessoas que representam riscos de segurança. É parte de um esforço crescente para usar inteligência artificial (IA) para investigar criminosos em potencial. Mas alguns especialistas dizem que o movimento está repleto de problemas em potencial.
"É muito difícil prever o comportamento humano", disse Matthew Carr, pesquisador de segurança do Atumcell Group, à Lifewire em uma entrevista por e-mail. “Não somos capazes de prever nosso próprio comportamento, muito menos o de outra pessoa. Acho que é possível que a IA possa ser usada no futuro para esse propósito, mas estamos muito longe de poder fazê-lo no momento."
Criando Perfis
Como o The Guardian noticiou recentemente, o departamento de polícia de Los Angeles investigou o uso do software de previsão de crimes do Voyager Lab. A empresa também anunciou que havia fechado um acordo significativo com uma agência do governo japonês.
O acordo japonês fornece à agência governamental uma plataforma de investigação baseada em IA que analisa grandes quantidades de informações de qualquer fonte, incluindo dados abertos e profundos.
"Estou feliz por estarmos colaborando na luta contra o terror e o crime", disse Divya Khangarot, diretora administrativa APAC da Voyager Labs, no comunicado à imprensa. "Usando as soluções de inteligência de ponta da Voyager Lab, nossos clientes obtêm recursos exclusivos para identificar e interromper ameaças potenciais de forma proativa. e maus atores."
Não é tão inteligente?
Mas em uma entrevista por e-mail, Matt Heisie, cofundador da Ferret.ai, que também usa IA para prever infratores, colocou em dúvida algumas das alegações da Voyager Labs.
"Existe uma ligação tão clara entre, digamos, um registro de prisão e comportamento criminoso futuro, como há uma mancha preta em um teste e o desenvolvimento de um tumor?" ele disse. "Pense em todas as possíveis confusões que ocorreram nessa prisão - em que bairro a pessoa morava, a quantidade e qualidade, até mesmo preconceitos, da polícia naquela área. A idade da pessoa, seu gênero, sua aparência física, tudo isso tem impactos cruzados na probabilidade de essa pessoa ter um registro de prisão, totalmente separada de sua real propensão a cometer o crime que estamos tentando prever."
Os réus com melhores advogados são mais propensos a impedir que os registros se tornem disponíveis publicamente, disse Heisie. Algumas jurisdições limitam a liberação de fotos ou registros de prisão para proteger o acusado.
"O computador aprenderá com base nos dados que você fornecer e incorporará todos os preconceitos que entraram nessa coleta de dados…"
"Tudo isso adiciona mais viés aos algoritmos", acrescentou. "O computador aprenderá com base nos dados que você fornecer e incorporará todos os preconceitos que entraram nessa coleta de dados no aprendizado e na interpretação."
Houve várias tentativas de criar IAs de previsão de crimes, e com resultados muitas vezes escandalosos, disse Heisie.
COMPAS, um algoritmo que a aplicação da lei usa para prever a reincidência, é frequentemente usado para determinar a sentença e a fiança. Enfrentou escândalo desde 2016 por preconceito racial, prevendo que réus negros representavam um risco maior de reincidência do que realmente fizeram, e o inverso para réus brancos.
Mais de 1.000 tecnólogos e acadêmicos, incluindo acadêmicos e especialistas em IA de Harvard, MIT, Google e Microsoft, se manifestaram em 2020 contra um artigo alegando que pesquisadores desenvolveram um algoritmo que poderia prever criminalidade com base apenas em um rosto da pessoa, dizendo que a publicação de tais estudos reforça o preconceito racial pré-existente no sistema de justiça criminal, observou Heisie.
A China é o mercado maior e de mais rápido crescimento para esse tipo de tecnologia, principalmente devido ao amplo acesso a dados privados, com mais de 200 milhões de câmeras de vigilância e pesquisas avançadas de IA focadas nesse problema por muitos anos, disse Heisie. Sistemas como o Police Cloud da CloudWalk agora são usados para prever e rastrear criminosos e identificar a aplicação da lei.
"No entanto, vieses substanciais são relatados lá também", disse Heisie.
Heisie acrescentou que sua empresa seleciona cuidadosamente os dados que entram e não usa fotos ou registros de prisão, "focando em critérios mais objetivos."
"Nossa IA aprendeu com os dados selecionados, mas, mais importante, também aprende com as pessoas, que analisam, selecionam e avaliam registros e nos contam sobre suas interações com outras pessoas", acrescentou. "Também mantemos total transparência e acesso público e gratuito ao nosso aplicativo (o mais rápido que pudermos deixá-los na versão beta) e recebemos informações sobre nossos processos e procedimentos."