Esta semana, o Google apresentou o recurso Multisearch para o Google Lens, que vai permitir fazer buscas usando imagem e texto de maneira integrada.

O recurso vai funcionar assim, digamos que você gostou de um modelo de vestido, mas quer comprá-lo em verde: tire uma foto no Lens e digite “verde” na busca. Gostou do estilo de um sapato, mas prefere sapatilha a salto alto: use a foto no Lens e escreva “sapatilha”. E se você quiser cortinas com a mesma estampa de um caderno que tem em casa? Mesma coisa, como explicou a gerente de produtos de Buscas do Google Belinda Zeng.

O uso mais óbvio para o recurso é fazer compras, mas Zeng e o diretor de Buscas da empresa Lou Wang dizem que há várias outras possibilidades. “Por exemplo, você tem um objeto quebrado na sua frente, não sabe como descrevê-lo, mas quer consertar… você pode simplesmente tirar uma foto e digitar ‘como consertar’”, Wang disse ao The Verge.

Zeng acrescentou que o novo recurso do Google Lens já funciona com alguns tipos de bicicletas quebradas. A gerente também disse que aprendeu a fazer estilos de manicure pegando fotos de unhas esmaltadas no Instagram e digitando “tutorial” na busca. Ainda é possível tirar uma foto de uma planta e buscar instruções de como cuidar dela.

Mas o recurso tem algumas limitações. No caso das cortinas com a mesma estampa de um caderno, se o Google Lens entender que há um caderno na sua imagem, a busca vai trazer mais cadernos. O truque é chegar bem perto do produto para que o Lens não registre que há um caderno na foto.

Por enquanto, o Multisearch do Google Lens está disponível em versão beta (para Android e iOS) apenas nos EUA, mas não deve demorar muito para ser implementado em outros países, segundo o Google.

Via: The Verge

Já assistiu aos nossos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!