Por que o Facebook precisa de regras mais claras para desinformação

Índice:

Por que o Facebook precisa de regras mais claras para desinformação
Por que o Facebook precisa de regras mais claras para desinformação
Anonim

Princípios importantes

  • O Conselho de Supervisão do Facebook pediu regras mais claras de desinformação no site de mídia social.
  • No momento, o conselho revogou várias decisões tomadas pelo Facebook para remover postagens que considerava desinformação ou discurso de ódio, mas na verdade não eram isso.
  • A necessidade de definições mais claras do que é e o que não é desinformação ou discurso de ódio é necessária, especialmente com o alcance internacional do Facebook.
Image
Image

O conselho de supervisão do Facebook, que foi criado para supervisionar ainda mais a remoção e moderação de postagens no site, anulou algumas decisões anteriores tomadas em relação a postagens que foram removidas, esclarecendo a necessidade de definições e regras mais claras.

O conselho de supervisão recebeu seus primeiros cinco casos em dezembro de 2020. Embora uma das postagens incluídas na revisão tenha sido dos EUA, todas as postagens vieram de quatro continentes diferentes, e todos puderam ver as declarações feitas em maneiras completamente diferentes. Por causa disso, as políticas que o Facebook coloca em ação precisam ser concisas e precisam funcionar com qualquer comunidade em que as ferramentas de moderação possam se concentrar.

"A atividade de 'revisão independente' do Facebook deve ser consistente além das fronteiras internacionais", escreveu-nos Jim Isaak, ex-presidente do Instituto de Engenheiros Elétricos e Eletrônicos e veterano de 30 anos na indústria de tecnologia, via o email. "Mas o que é 'discurso de ódio' nos EUA pode ser definido como patriótico em outras sociedades autocráticas - aumentando a complexidade do que é feito."

Linhas na Areia

Esta necessidade de consistência e regras mais concisas já está surgindo. Dos cinco casos que o conselho de supervisão do Facebook assumiu em dezembro, o grupo decidiu anular quatro dos casos, com dois deles mostrando claramente a necessidade de melhor moderação.

Em um dos casos anulados, o conselho decidiu a favor de uma mulher cuja postagem no Instagram sobre câncer de mama foi removida do site automaticamente por violar sua política de nudez adulta e atividade sexual.

Enquanto o Facebook já havia restaurado a fotografia, o conselho mostrou objeção à sua remoção em primeiro lugar. O conselho até recomendou que o Facebook implementasse sistemas de apelação, permitindo que os usuários vejam quando uma postagem foi removida, por que foi removida e até sugerindo maneiras de falar com um ser humano para buscar uma resolução.

Image
Image

O conselho descobriu que, embora a mulher tenha compartilhado uma postagem que apresentava mamilos femininos descobertos e visíveis, a fotografia não quebrou as Diretrizes da Comunidade do Instagram. O padrão de nudez adulta e atividade sexual que o Facebook mantém em seus padrões comunitários permite nudez quando o usuário procura aumentar a conscientização por um motivo médico ou outra causa.

Outra postagem, que foi compartilhada de Mianmar, incluía linguagem sobre muçulmanos que o conselho disse que pode ser considerada ofensiva, mas não atingiu o nível de discurso de ódio para justificar sua remoção ou considerada contra as regras.

É aqui que as coisas começam a ficar especialmente complicadas.

Qual é a subida?

"O Facebook opera internacionalmente", disse Isaak à Lifewire por e-mail. "Cada jurisdição tem suas próprias regras, e o Facebook pode ser responsabilizado pelas de outros países."

O Facebook deve ter em mente todas as regras dos territórios em que opera ao estabelecer novas políticas. Ao tornar as políticas pouco claras, o Facebook está deixando espaço para erros que podem levar o conselho de supervisão a anular mais casos no futuro.

Com a disseminação do discurso de ódio e desinformação se tornando tão prevalente, especialmente em mídias sociais como Facebook e Twitter, é importante que essas empresas ofereçam diretrizes claras que possam ser usadas para moderar a comunidade.

O que é 'discurso de ódio' nos EUA pode ser definido como patriótico em outras sociedades autocráticas…

Claro, sempre existem outras opções para ajudar a mitigar esses tipos de problemas. Na verdade, um dos casos que o conselho originalmente pretendia supervisionar em dezembro foi removido da pauta após a exclusão da postagem pelo usuário.

A moderação gerada pelo usuário é algo que já vimos fazer sucesso em sites como Wikipedia e, recentemente, o próprio Twitter intensificou o lançamento do Birdwatch, um sistema de moderação desenvolvido pela comunidade para ajudar a impedir a disseminação de informações erradas.

Esses métodos têm outros problemas, e é por isso que obter uma linha de base padrão para as expectativas da comunidade será fundamental para o Facebook oferecer uma melhor moderação de seus aplicativos e sites no futuro.

Recomendado: