A IA de restrição de nova era do YouTube preocupa a comunidade LGBTQ+

Índice:

A IA de restrição de nova era do YouTube preocupa a comunidade LGBTQ+
A IA de restrição de nova era do YouTube preocupa a comunidade LGBTQ+
Anonim

Princípios importantes

  • O software automático de restrição de idade do YouTube é motivo de preocupação para o conteúdo LGBTQ+ na plataforma.
  • A empresa foi marcada por controvérsias em relação aos criadores de conteúdo LGBTQ+, cimentando dúvidas.
  • Vieses no aprendizado de máquina dão credibilidade à ideia de que sua implementação imperfeita de filtros provavelmente restringirá o acesso injustamente.
Image
Image

Com um histórico de segmentação injusta de criadores de conteúdo LGBTQ+ em seu processo de moderação, a nova tecnologia baseada em IA do YouTube é vista como um próximo passo preocupante para a gigante da tecnologia.

No blog oficial do YouTube na semana passada, a plataforma de compartilhamento de vídeos revelou planos para lançar um novo software automático para "aplicar restrições de idade de forma mais consistente" em vídeos considerados inadequados para espectadores mais jovens.

Motivado por preocupações recentes sobre crianças no aplicativo, o novo sistema é baseado em software de inteligência artificial de aprendizado de máquina com a capacidade de abrir mão de moderadores humanos para um processo mais automático. O problema? Os sistemas automatizados do YouTube foram acusados de destacar conteúdo e criadores LGBTQ+ simplesmente por existirem.

Mesmo que não seja malicioso, o que eu não acho que seja, é uma f alta de entrada de diversas vozes - ou pelo menos uma f alta de respeito.

"O aprendizado de máquina é informado e criado por humanos, e é possível ter esses preconceitos inerentes a ele ou aprendidos pela própria máquina", disse o YouTuber Rowan Ellis em entrevista por telefone à Lifewire. "Seu preconceito em relação ao conteúdo [LGBTQ+] ficou evidente nas experiências anteriores dos YouTubers [LGBTQ+], e não vi evidências de que algo tenha sido feito para impedir que isso acontecesse."

Baby, agora temos sangue ruim

Ellis é uma YouTuber que cria conteúdo educacional com cunho feminista e queer, e em 2017 publicou um vídeo no modo restrito da empresa. Como uma incursão inicial na moderação automática de conteúdo, esse modo permitia que os usuários pré-selecionassem opcionalmente "conteúdo potencialmente adulto" a partir de sugestões e recomendações de pesquisa.

Acumulando mais de 100.000 visualizações, ela acredita que houve um esforço consciente para impedir que seu canal fosse restringido devido à sua oposição vocal aos excessos do novo passo do YouTube em direção à moderação. Outros usuários da plataforma não tiveram tanta sorte e fizeram o YouTube saber disso.

Uma ação coletiva contra o YouTube foi movida em agosto de 2019 por um grupo de oito criadores LGBTQ+ que acusaram a empresa do Vale do Silício de restringir criadores e conteúdo de vídeos queer e trans. O processo alega que o site usa “práticas ilegais de regulação, distribuição e monetização de conteúdo que estigmatizam, restringem, bloqueiam, desmonetizam e prejudicam financeiramente os demandantes LGBT e a comunidade LGBT em geral. Ainda está passando pelos tribunais da Califórnia.

Machine learning é informado e criado por humanos, e é possível ter esses vieses inerentes a ele ou aprendidos pela própria máquina.

Em junho do mesmo ano, a plataforma recebeu uma enxurrada de atenção da mídia depois de se recusar a repreender rapidamente o popular comentarista conservador Steven Crowder por uma campanha de assédio homofóbico de meses contra o jornalista e apresentador do Vox Carlos Maza. Isso cimentou o que Ellis disse ser um padrão com a plataforma online de ignorar os desafios únicos que os criadores queer enfrentam. A f alta de fé dos criadores LGBTQ+ na capacidade do YouTube de aparecer para eles não é sem mérito.

"Acho que eles não entenderam a necessidade de haver transparência em relação às questões sociais e garantia de igualdade", disse ela. "Ainda há crianças em todo o mundo que cresceram com a ideia de que ser gay é errado, e quando elas começam a questionar essa crença, mas a encontram fechada por uma busca segura ou restrição, isso reforça essa ideia de que é errado, inadequado, adulto, perverso e sujo."

Falha na aprendizagem automática

Com seu histórico sórdido em relação aos criadores de conteúdo LGBTQ+ em sua plataforma, a preocupação com a implementação da capacidade do software de aprendizado de máquina de discernir normas maiores ainda paira. Don Heider, diretor executivo do Markkula Center for Applied Ethics, sugere que o potencial para a loucura é um risco muito grande para se jogar.

"É difícil acreditar que a IA possa governar efetivamente o conteúdo de vários países com diferentes normas e padrões culturais", escreveu ele em uma entrevista por e-mail. "A IA é muitas vezes vista como a resposta para perguntas complexas. Neste ponto, a IA e a forma como ela é criada se esforça para lidar com tarefas simples, sem falar em qualquer moderação de conteúdo com qualquer nível de complexidade."

O YouTube decidiu usar a tecnologia de IA devido à f alta de moderação consistente por moderadores humanos, de acordo com seu blog. Aumentar o uso de filtros computadorizados para remover vídeos considerados inadequados tornou-se a norma, e implementar os mesmos procedimentos para suas políticas de restrição de idade é visto como um próximo passo lógico.

Como uma empresa que busca melhorar gradualmente seus processos após críticas de longa data em relação ao seu relacionamento com o consumidor infantil, essa decisão não é nenhuma surpresa.

Acho que eles não entenderam a necessidade de haver transparência em relação às questões sociais e garantia de igualdade.

As crianças se tornaram um grupo demográfico importante para o site de compartilhamento de vídeos. Em agosto, a empresa de análise de vídeo digital Tubular descobriu que, além dos videoclipes, o conteúdo voltado para crianças estava no topo da lista de vídeos mais vistos do YouTube no final do mês.

O interesse da empresa em proteger essa lucrativa e emergente potência na plataforma faz sentido. No entanto, as ferramentas usadas para impor essa proteção permanecem desconfortáveis para aqueles que já se encontram a jusante dos procedimentos de moderação da empresa.

"Minha preocupação é que isso cause muitos danos e não proteja os jovens [LGBTQ+] que precisam de conteúdo informativo, franco e honesto que muitos YouTubers [LGBTQ+] podem fornecer, mas são sinalizados em seu sistema como inapropriado", disse Ellis."Mesmo que não seja malicioso, o que eu não acho que seja, é uma f alta de entrada de diversas vozes - ou pelo menos uma f alta de respeito.

"Vemos isso o tempo todo na tecnologia. Quando você está olhando para o reconhecimento facial que não diferencia diferentes rostos negros, ou quando olhamos para a medicina e vemos que a medicação só foi testada em um determinado gênero. são conversas maiores, e o YouTube não está isento disso."