Por que o novo software de criação de perfis levanta questões de privacidade

Índice:

Por que o novo software de criação de perfis levanta questões de privacidade
Por que o novo software de criação de perfis levanta questões de privacidade
Anonim

Princípios importantes

  • Software que usa inteligência artificial para criar perfis de pessoas está levantando questões de privacidade.
  • Cryfe combina técnicas de análise comportamental com inteligência artificial.
  • A empresa chinesa Alibaba recentemente enfrentou críticas depois de supostamente dizer que seu software poderia detectar uigures e outras minorias étnicas.
Image
Image

O novo software desenvolvido com inteligência artificial destinado a empregadores para traçar o perfil de seus funcionários está levantando questões de privacidade.

Uma nova plataforma de software, chamada Cryfe, combina técnicas de análise comportamental com inteligência artificial. O desenvolvedor afirma que, analisando pistas minuciosas, o software pode revelar as intenções das pessoas durante as entrevistas. Mas alguns observadores dizem que o Cryfe e outros tipos de software que analisam o comportamento podem invadir a privacidade.

"As empresas dependem cada vez mais da IA para criar perfis", disse o especialista em IA Vaclav Vincale em entrevista por e-mail. "Mas mesmo os humanos que codificam esses algoritmos, muito menos uma pessoa de suporte ao cliente que você contata por telefone, não sabem dizer por que eles fazem qualquer recomendação."

Mais Que Palavras

Cryfe foi desenvolvido por uma empresa suíça cujos funcionários foram treinados pelo FBI em técnicas de criação de perfil. "Cryfe, em toda comunicação interpessoal, não apenas ouve palavras, mas identifica outros sinais emitidos pelo humano, como emoções, microexpressões e todos os gestos", disse Caroline Matteucci, fundadora da Cryfe, em entrevista por e-mail.

"Durante o recrutamento, por exemplo, isso nos permite ir buscar a real personalidade do nosso interlocutor."

Matteucci disse que a privacidade dos usuários é protegida porque a empresa é transparente sobre como seu software funciona. "O usuário, antes de poder usar a plataforma, deve aceitar as condições gerais", disse ela.

"Está especificado que o usuário não poderá, em nenhum caso, submeter uma entrevista para análise sem ter recebido o consentimento por escrito do interlocutor."

Cryfe não é o único software com inteligência artificial que pretende analisar o comportamento humano. Há também a Humantic, que afirma analisar o comportamento do consumidor. "A tecnologia inovadora da Humantic prevê o comportamento de todos sem que eles precisem fazer um teste de personalidade", de acordo com o site da empresa.

Image
Image

A empresa afirma usar a IA para criar perfis psicológicos dos candidatos com base nas palavras que eles usam em currículos, cartas de apresentação, perfis do LinkedIn e qualquer outro texto enviado.

O software comportamental enfrentou desafios legais no passado. Em 2019, a Bloomberg Law informou que a Equal Employment Opportunity Commission (EEOC) analisou casos de suposta discriminação ilegal devido a decisões relacionadas a RH assistidas por algoritmos.

"Isso tudo vai ter que ser resolvido porque o futuro do recrutamento é a IA", disse o advogado Bradford Newman à Bloomberg.

Alguns observadores têm problemas com empresas que usam software de rastreamento comportamental porque não é preciso o suficiente. Em uma entrevista, Nigel Duffy, líder global de inteligência artificial da empresa de serviços profissionais EY, disse à InformationWeek que está preocupado com software que usa questionários de mídia social e afeta a detecção.

"Acho que há uma literatura realmente convincente sobre o potencial de detecção de afeto, mas meu entendimento é que a maneira como isso é implementado muitas vezes é bastante ingênua", disse ele.

"As pessoas estão fazendo inferências de que a ciência realmente não apóia [como] decidir que alguém é um funcionário potencialmente bom porque está sorrindo muito ou decidir que alguém gosta de seus produtos porque está sorrindo muito."

Empresas chinesas supostamente perfilam minorias

O rastreamento comportamental também pode ter propósitos mais sinistros, dizem alguns grupos de direitos humanos. Na China, o gigante do mercado online Alibaba recentemente levantou um alvoroço depois de alegar que seu software poderia detectar uigures e outras minorias étnicas.

O New York Times informou que o negócio de computação em nuvem da empresa tinha um software que digitalizava imagens e vídeos.

Mas mesmo os humanos que codificam esses algoritmos… não sabem dizer por que eles fazem qualquer recomendação.

O Washington Post também informou recentemente que a Huawei, outra empresa de tecnologia chinesa, testou um software que poderia alertar as autoridades quando suas câmeras de vigilância detectassem rostos uigures.

Um pedido de patente de 2018 da Huawei alegadamente afirmou que a "identificação de atributos de pedestres é muito importante" na tecnologia de reconhecimento facial."Os atributos do objeto de destino podem ser sexo (masculino, feminino), idade (como adolescentes, meia-idade, velho) [ou] raça (Han, Uyghur)", disse o aplicativo.

Um porta-voz da Huawei disse à CNN Business que o recurso de identificação de etnia "nunca deveria ter se tornado parte do aplicativo."

O crescente uso de inteligência artificial para classificar grandes quantidades de dados deve aumentar as preocupações com a privacidade. Você pode nunca saber quem ou o que está analisando você na próxima vez que for para uma entrevista de emprego.

Recomendado: