O Google está atualizando seu aplicativo Lens com um novo recurso de pesquisa múltipla que permitirá que as pessoas pesquisem usando imagens e texto ao mesmo tempo para orientar o aplicativo.
A maneira como funciona é que haverá um novo botão '+ Adicionar à sua pesquisa' na parte superior do Google Lens que você pode tocar para abrir outra barra de pesquisa para restringir os resultados. Você pode condensar os resultados de acordo com a cor, nome da marca ou qualquer outro atributo visual.
O recurso de pesquisa múltipla funciona com capturas de tela e fotografias, e ainda informa onde você pode comprar o objeto na imagem. Você também pode encontrar resultados em objetos de aparência semelhante ou qualquer coisa relacionada ao item.
Fortalecendo esse recurso está o novo modelo multitarefa unificado do Google, ou MUM, abreviado. É uma ferramenta de IA que aprimora a capacidade de pesquisa do Google usando imagens ao lado de texto em uma consulta. O Google também visualizou o MUM usando vídeos em sua pesquisa, embora esse recurso ainda esteja em seus estágios iniciais.
Esse novo recurso está disponível hoje como parte de uma nova atualização do Google Lens para iOS e Android e está em versão beta, portanto, pode não funcionar tão perfeitamente quanto deveria inicialmente. Por exemplo, ele pode exibir resultados para chocolate quando você estiver pesquisando informações sobre um filtro de óleo devido às semelhanças entre as caixas.
Multisearch só estará disponível para usuários nos Estados Unidos e em inglês. O Google ainda não disse se esse recurso será lançado no exterior ou em outros idiomas, embora isso seja provavelmente uma eventualidade.