Não confie em nada que você vê na web, dizem especialistas

Índice:

Não confie em nada que você vê na web, dizem especialistas
Não confie em nada que você vê na web, dizem especialistas
Anonim

Princípios importantes

  • Nova pesquisa revela que as pessoas não podem separar imagens geradas por IA de imagens reais.
  • Os participantes classificaram as imagens geradas por IA como mais confiáveis.
  • Especialistas acreditam que as pessoas devem parar de confiar em qualquer coisa que vejam na internet.
Image
Image

O ditado 'ver para crer' não é mais relevante quando se trata da internet, e especialistas dizem que não vai melhorar tão cedo.

Um estudo recente descobriu que imagens de rostos geradas por inteligência artificial (IA) não eram apenas altamente fotorrealistas, mas também pareciam mais virtuosas do que rostos reais.

"Nossa avaliação do fotorrealismo de rostos sintetizados por IA indica que os mecanismos de síntese passaram pelo vale misterioso e são capazes de criar rostos indistinguíveis e mais confiáveis do que rostos reais ", observaram os pesquisadores.

Essa pessoa não existe

Os pesquisadores, Dr. Sophie Nightingale da Universidade de Lancaster e Professor Hany Farid da Universidade da Califórnia, Berkeley, conduziram os experimentos depois de reconhecer as ameaças bem divulgadas de deep fakes, desde todos os tipos de fraude online até revigorantes campanhas de desinformação.

"Talvez a mais perniciosa seja a consequência de que, em um mundo digital em que qualquer imagem ou vídeo pode ser falsificado, a autenticidade de qualquer gravação inconveniente ou indesejada pode ser questionada", argumentaram os pesquisadores.

Eles argumentaram que, embora tenha havido progresso no desenvolvimento de técnicas automáticas para detectar conteúdo deep-fake, as técnicas atuais não são eficientes e precisas o suficiente para acompanhar o fluxo constante de novos conteúdos sendo enviados online. Isso significa que cabe aos consumidores de conteúdo online separar o real do falso, sugere a dupla.

Jelle Wieringa, defensora da conscientização sobre segurança da KnowBe4, concordou. Ele disse à Lifewire por e-mail que combater as falsificações profundas reais é extremamente difícil sem tecnologia especializada. "[Tecnologias de mitigação] podem ser caras e difíceis de implementar em processos em tempo real, muitas vezes detectando um deepfake somente após o fato."

Com essa suposição, os pesquisadores realizaram uma série de experimentos para determinar se os participantes humanos podem distinguir rostos sintetizados de última geração de rostos reais. Em seus testes, eles descobriram que, apesar do treinamento para ajudar a reconhecer falsificações, a taxa de precisão só melhorou para 59%, acima dos 48% sem treinamento.

Isso levou os pesquisadores a testar se as percepções de confiabilidade poderiam ajudar as pessoas a identificar imagens artificiais. Em um terceiro estudo, eles pediram aos participantes para avaliar a confiabilidade dos rostos, apenas para descobrir que a classificação média para rostos sintéticos era 7.7% mais confiável do que a classificação média para rostos reais. O número pode não parecer muito, mas os pesquisadores afirmam que é estatisticamente significativo.

Deeper Fakes

Deep fakes já eram uma grande preocupação, e agora as águas ficaram ainda mais turvas por este estudo, que sugere que imagens falsas de alta qualidade podem adicionar uma nova dimensão aos golpes online, por exemplo, ajudando a criar mais convencer perfis falsos online.

"A única coisa que impulsiona a segurança cibernética é a confiança que as pessoas têm nas tecnologias, processos e pessoas que tentam mantê-los seguros", compartilhou Wieringa. "Deep fakes, especialmente quando se tornam fotorrealistas, minam essa confiança e, portanto, a adoção e aceitação da segurança cibernética. Isso pode levar as pessoas a desconfiar de tudo o que percebem."

Image
Image

Chris Hauk, defensor da privacidade do consumidor da Pixel Privacy, concordou. Em uma breve troca de e-mails, ele disse à Lifewire que o deep fake fotorrealista poderia causar "havoc" online, especialmente nos dias de hoje em que todos os tipos de contas podem ser acessados usando a tecnologia de identificação com foto.

Ação Corretiva

Felizmente, Greg Kuhn, Diretor de IoT, Prosegur Security, diz que existem processos que podem evitar tal autenticação fraudulenta. Ele disse à Lifewire por e-mail que os sistemas de credenciamento baseados em IA correspondem a um indivíduo verificado em uma lista, mas muitos têm salvaguardas incorporadas para verificar a "vivência".

"Esses tipos de sistemas podem exigir e orientar um usuário a executar certas tarefas, como sorrir ou virar a cabeça para a esquerda e depois para a direita. Essas são coisas que rostos gerados estaticamente não podem realizar ", compartilhou Kuhn.

Os pesquisadores propuseram diretrizes para regular sua criação e distribuição para proteger o público de imagens sintéticas. Para começar, eles sugerem incorporar marcas d'água profundamente arraigadas nas próprias redes de síntese de imagem e vídeo para garantir que todas as mídias sintéticas possam ser identificadas de forma confiável.

Até então, Paul Bischoff, defensor da privacidade e editor de pesquisa de infosec na Comparitech, diz que as pessoas estão por conta própria."As pessoas terão que aprender a não confiar em rostos online, assim como todos nós (espero) aprendemos a não confiar em nomes de exibição em nossos e-mails", disse Bischoff à Lifewire por e-mail.

Recomendado: