A capacidade de Alexa de imitar parentes mortos pode ser a coisa mais assustadora de todos os tempos

Índice:

A capacidade de Alexa de imitar parentes mortos pode ser a coisa mais assustadora de todos os tempos
A capacidade de Alexa de imitar parentes mortos pode ser a coisa mais assustadora de todos os tempos
Anonim

Princípios importantes

  • A assistente de voz Alexa da Amazon pode copiar uma voz com apenas um minuto de áudio.
  • Você pode pedir à Alexa para ler uma história na voz de um pai morto.
  • É a mesma ideia de deep fakes, usado apenas para os poderes do bem.
Image
Image

O último truque do Amazon Alexa é aprender a imitar a voz de um ente querido morto, para que eles possam falar com você do além-túmulo.

Alexa precisa de apenas um minuto de áudio falado para imitar de forma convincente uma voz. A Amazon o considera um recurso reconfortante que pode colocar você em contato com os entes queridos, mas também pode ser uma experiência bastante assustadora. E mostra como é fácil fazer um áudio falso profundo que é bom o suficiente para nos enganar, mesmo quando a voz é uma que conhecemos muito bem.

"A Amazon definitivamente entrou em um território bastante único e bizarro com o anúncio de que Alexa logo poderá aprender e usar a voz de parentes mortos em breve", disse Bill Mann, especialista em privacidade da Restore Privacy, Lifewire por e-mail. "Para algumas pessoas, não é nada assustador. Na verdade, pode ser bastante tocante."

Fantasma na Máquina

Como parte de sua conferência anual re:MARS, a Amazon mostra o recurso em um pequeno vídeo. Nele, uma criança pergunta a Alexa se a vovó pode continuar lendo para ele "O Mágico de Oz", o trabalho de domínio público favorito de todas as crianças. E é um momento bastante tocante. É difícil não sentir emoções humanas quando a vovó começa a ler.

"Os seres humanos lutam contra a mortalidade, especialmente na cultura ocidental. Durante séculos, tentamos encontrar maneiras de homenagear os mortos, desde máscaras mortuárias, mechas de cabelo, fotos antigas, até assistir a filmes antigos ", Andrew Selepak, professor de mídia social da Universidade da Flórida, disse à Lifewire por e-mail. "Deepfakes usam a tecnologia mais recente para criar uma nova máscara mortuária de um ente querido falecido. Mas, dependendo da perspectiva de cada um, é assustador ou uma maneira de lembrar e manter alguém que você ama depois que ele morreu?"

Mas um memento mori pode ser reconfortante e assustador. O amigo de um membro da família está morto, mas você ainda pode ouvi-lo falando. Não ajuda que o Alexa tenha um histórico de comportamento estranho e às vezes aterrorizante. Em 2018, quando o colunista de opinião do NYT Farhad Manjoo estava indo para a cama, seu Amazon Echo "começou a chorar, como uma criança gritando em um sonho de filme de terror".

Logo depois, a Amazon reconheceu que Alexa às vezes ria alto, o que, junto com adolescentes e caves, é o filme de terror 101.

Só podemos imaginar como você se sentiria se Alexa fizesse os mesmos truques na voz da vovó.

Deep Fake

A aparente facilidade com que Alexa aprende a imitar uma voz nos leva a usos mais nefastos da clonagem de voz: deep fakes.

Image
Image

"O áudio deepfake não é novo, mesmo que seja pouco compreendido e conhecido. A tecnologia está disponível há anos para recriar a voz de um indivíduo com inteligência artificial e aprendizado profundo usando relativamente pouco áudio real da pessoa " diz Selepak. "Tal tecnologia também pode ser perigosa e destrutiva. Um indivíduo perturbado pode recriar a voz de um ex-namorado ou namorada morto e usar o novo áudio para dizer coisas odiosas e ofensivas."

Isso é apenas no contexto do Alexa. O áudio falso profundo pode ir muito além disso, convencendo as pessoas de que políticos proeminentes acreditam em coisas que elas não acreditam, por exemplo. Mas, por outro lado, quanto mais nos acostumamos com essas falsificações profundas - talvez na forma dessas vozes do Alexa - mais céticos seremos em relação às falsificações mais nefastas. Então, novamente, dado o quão fácil é espalhar mentiras no Facebook, talvez não.

Amazon não disse se esse recurso está chegando ao Alexa ou se é apenas uma demonstração de tecnologia. Eu meio que espero que sim. A tecnologia está no seu melhor quando usada de maneira humanista como essa, e mesmo que a reação fácil seja chamá-la de assustador, como diz Selepak, realmente não é muito diferente de assistir a vídeos antigos ou ouvir mensagens de voz salvas, como um personagem de um programa de TV com roteiro preguiçoso.

E se a tecnologia para deep fakes está prontamente disponível, por que não usá-la para nos confortar?

Recomendado: