Princípios importantes
- Zoom teria dito que usaria IA para avaliar o sentimento de um usuário ou o nível de engajamento.
- Grupos de direitos humanos estão pedindo ao Zoom para repensar seu plano devido a questões de privacidade e segurança de dados.
- Algumas empresas também usam software de detecção de emoções durante as entrevistas para avaliar se o usuário está prestando atenção.
O uso crescente de inteligência artificial (IA) para monitorar as emoções humanas está gerando preocupações com a privacidade.
Organizações de direitos humanos estão pedindo ao Zoom que diminua seu plano de introduzir IA de análise de emoções em seu software de videoconferência. A empresa disse que usará a IA para avaliar o sentimento ou o nível de engajamento de um usuário.
"Especialistas admitem que a análise de emoções não funciona", escreveu o consórcio de grupos de direitos humanos, incluindo a ACLU, em uma carta ao Zoom. "As expressões faciais geralmente são desconectadas das emoções subjacentes, e pesquisas descobriram que nem mesmo os humanos podem ler ou medir com precisão as emoções dos outros às vezes. Desenvolver essa ferramenta adiciona credibilidade à pseudociência e coloca sua reputação em risco."
Zoom não respondeu imediatamente a um pedido de comentário da Lifewire.
Mantendo o controle de suas emoções
De acordo com o artigo do Protocolo, o sistema de monitoramento Zoom chamado Q for Sales verificaria a taxa de tempo de conversação dos usuários, o atraso no tempo de resposta e as frequentes mudanças de locutor para rastrear o quão engajada a pessoa está. O Zoom usaria esses dados para atribuir pontuações entre zero e 100, com pontuações mais altas indicando maior envolvimento ou sentimento.
Os grupos de direitos humanos alegam que o software pode discriminar pessoas com deficiência ou certas etnias, assumindo que todos usam as mesmas expressões faciais, padrões de voz e linguagem corporal para se comunicar. Os grupos também sugerem que o software pode ser um risco de segurança de dados.
"A coleta de dados profundamente pessoais pode tornar qualquer entidade que implemente essa tecnologia um alvo para bisbilhotar autoridades governamentais e hackers maliciosos", de acordo com a carta.
Julia Stoyanovich, professora de ciência da computação e engenharia da Universidade de Nova York, disse à Lifewire em uma entrevista por e-mail que ela é cética sobre as alegações por trás da detecção de emoções.
"Eu não vejo como essa tecnologia pode funcionar - a expressão emocional das pessoas é muito individual, culturalmente dependente e muito específica do contexto", disse Stoyanovich."Mas, talvez ainda mais importante, não vejo por que gostaríamos que essas ferramentas funcionassem. Em outras palavras, teríamos ainda mais problemas se funcionassem bem. Mas talvez antes mesmo de pensar nos riscos, devêssemos pergunte-quais são os benefícios potenciais de tal tecnologia?"
Zoom não é a única empresa a usar software de detecção de emoções. Theo Wills, diretor sênior de privacidade da Kuma LLC, uma empresa de consultoria de privacidade e segurança, disse à Lifewire por e-mail que o software para detectar emoções é usado durante as entrevistas para avaliar se o usuário está prestando atenção. Também está sendo testado no setor de transporte para monitorar se os motoristas parecem sonolentos, em plataformas de vídeo para avaliar o interesse e personalizar recomendações e em tutoriais educacionais para determinar se um método de ensino específico é atraente.
Wills afirmou que a controvérsia em torno do software de monitoramento de emoções é mais uma questão de ética de dados do que de privacidade. Ela disse que é sobre o sistema tomar decisões do mundo real com base em palpites.
"Com esta tecnologia, você agora está assumindo a razão pela qual eu tenho uma determinada expressão no meu rosto, mas o ímpeto por trás de uma expressão varia muito devido a coisas como educação social ou cultural, comportamentos familiares, experiências passadas ou nervosismo no momento", acrescentou Wills. "Basear o algoritmo em uma suposição é inerentemente falho e potencialmente discriminatório. Muitas populações não são representadas na população em que os algoritmos se baseiam, e a representação apropriada precisa ser priorizada antes que isso seja usado."
Considerações Práticas
Os problemas levantados pelo software de rastreamento de emoções podem ser práticos e teóricos. Matt Heisie, cofundador do Ferret.ai, um aplicativo baseado em IA que fornece inteligência de relacionamento, disse à Lifewire em um e-mail que os usuários precisam perguntar onde a análise de rostos está sendo feita e quais dados estão sendo armazenados. O estudo está sendo feito em gravações de chamadas, processadas na nuvem ou no dispositivo local?
Além disso, Heisie perguntou, à medida que o algoritmo aprende, quais dados ele coleta sobre o rosto ou os movimentos de uma pessoa que poderiam ser desembaraçados do algoritmo e usados para recriar a biometria de alguém? A empresa está armazenando instantâneos para verificar ou validar os aprendizados do algoritmo e o usuário é notificado sobre esses novos dados derivados ou imagens armazenadas que podem ser coletadas de suas chamadas?
"Estes são todos os problemas que muitas empresas resolveram, mas também há empresas que foram abaladas por escândalos quando se descobriu que não fizeram isso corretamente", disse Heisie. "O Facebook é o caso mais significativo de uma empresa que reverteu sua plataforma de reconhecimento facial devido a preocupações com a privacidade do usuário. A empresa controladora Meta agora está retirando recursos de AR do Instagram em algumas jurisdições como Illinois e Texas por causa das leis de privacidade em torno de dados biométricos."