Princípios importantes
- Os novos recursos de acessibilidade incluem legendas ao vivo geradas em tempo real, para qualquer vídeo ou conversa.
- Se esse recurso não for feito para os supostos óculos AR da Apple, comeremos nosso chapéu de emoji virtual.
- A Apple tem um histórico de testar recursos futuros de produtos dentro dos dispositivos atuais.
As novas Live Captions da Apple adicionam legendas em tempo real a qualquer coisa, incluindo a pessoa que está na sua frente.
Assim como o conceito AR Glasses do Google, anunciado esta semana. As Live Captions da Apple podem pegar o áudio recebido e transcrevê-lo instantaneamente. A diferença é que a versão da Apple será lançada “ainda este ano”, o que provavelmente significa que será no lançamento do iOS 16 deste outono. Mas a verdadeira notícia aqui é que esta é a tentativa mais óbvia da Apple de testar os futuros recursos do Apple Glasses à vista de todos.
"Como alguém que tem dois pais que têm dificuldade em ouvir, isso pode ser uma grande ajuda", escreve o jornalista centrado na Apple, Dan Moren, em seu blog pessoal Six Colors. "Estou curioso para ver como o recurso realmente funciona e como ele lida com uma grande chamada FaceTime com muitos participantes; a Apple diz que atribuirá diálogo a palestrantes específicos."
Prestidigitação
Live Captions, que veremos em um segundo, está longe de ser o primeiro recurso de óculos AR que a Apple testou. A mais óbvia é a inclusão de câmeras LIDAR em iPhones e iPads. Esses scanners ajudam a criar um mapa 3D preciso do mundo externo e permitem que o iPhone sobreponha modelos 3D ao mundo real mostrado pela câmera.
Não tenho certeza se podemos confiar na tradução ao vivo da Apple melhor do que nos novos óculos AR do Google, mas acho que podemos confiar que a competição ajudará a gerar os melhores resultados.
Até agora, essa tecnologia tem sido usada para permitir que você visualize novos computadores Apple em sua própria mesa, jogue jogos AR Lego, teste móveis IKEA em sua sala de estar e assim por diante. O hardware LIDAR é tão absurdamente redundante nos iPhones que só deve estar lá para que a Apple possa aprimorar o hardware e o software para um aplicativo de realidade aumentada: Apple Glasses.
Também não é apenas AR visual. Os AirPods adicionam recursos AR puros há anos. O mais recente, Spatial Audio, engana nossos cérebros para pensar que os sons estão vindo de todos os lugares e é uma ótima maneira de assistir a filmes ou ouvir paisagens sonoras relaxantes. É um ótimo recurso, mas será ainda melhor quando funcionar com o futuro produto de óculos esperado da Apple. Ser capaz de colocar sons em um espaço 3D para combinar com os objetos AR realmente venderá a ilusão.
Ou que tal o Live Text, a tecnologia do iOS 15 que reconhece e lê texto em fotos, e ao vivo, pela câmera do iPhone? Esse é outro recurso ideal para ler placas, menus e outros textos por meio de óculos AR.
Legendas ao vivo
Live Captions capta a fala de uma chamada do FaceTime, aplicativos de videoconferência, streaming de vídeo e assim por diante. Seu telefone pega o áudio e o transcreve dinamicamente, fornecendo legendas, como pode ser visto neste vídeo.
Isso é ótimo, mas o que é ainda melhor é que nada sai do seu iPhone. As legendas, diz a Apple, são geradas no dispositivo em vez de serem enviadas para um servidor. Isso não é apenas mais privado, mas também muito mais rápido.
"Não tenho certeza se podemos confiar na tradução ao vivo da Apple melhor do que nos novos óculos AR do Google, mas acho que podemos confiar que a competição ajudará a gerar os melhores resultados ", disse Kristen Bolig, fundadora da SecurityNerd, à Lifewire via email."Agora que a concorrência é pública e os problemas com esse tipo de tecnologia (privacidade, precisão etc.) resolve esses problemas."
Também esperamos algum tipo de tradução automática integrada, como você pode obter agora usando o aplicativo de terceiros Navi para traduzir automaticamente suas conversas do FaceTime, ou talvez uma maneira de salvar essas transcrições durante as entrevistas para acesso mais fácil depois.
Desfrutamos há muito tempo dos excelentes recursos de acessibilidade da Apple, permitindo que personalizemos nossos dispositivos iOS de forma quase absurda. Desde ajustar a tela para tornar as cores e o texto mais fáceis de ver, controlar toda a interface do usuário com dispositivos externos, fazer com que o telefone o notifique quando alguém tocar a campainha ou uma van de entrega chegar do lado de fora.
Agora, todos estamos recebendo os benefícios do aumento da pesquisa da Apple em tecnologia de realidade aumentada. Podemos não nos importar com a IKEA ou LEGO, nem mesmo querer comprar um par de óculos de realidade aumentada da Apple, mas isso não significa que não podemos aproveitar os frutos dessa pesquisa.