Google anuncia uma série de novos recursos

Após anunciar a chegada do Bard, seu serviço experimental de inteligência artificial (IA) conversacional, o Google realizou nesta quarta-feira (8), em Paris, um evento global onde apresentou as últimas inovações em IA para Busca, Google Maps e Google Tradutor.

Entre as principais novidades anunciadas pelos porta-vozes da empresa, está a expansão para mais países do Multisearch, experiência de busca que combina imagem e texto no aplicativo da Busca. A experiência já está disponível no Brasil.

No Maps, o Google apresentou avanços em IA e Realidade Aumentada, entre eles a expansão da funcionalidade Live Indoor View, que inclui 1.000 novos aeroportos, estações de trem e shoppings em cidades ao redor do mundo, cidades ao redor do mundo, incluindo Londres, Paris, Berlim e São Paulo nos próximos meses.

Na ocasião, o Vice Presidente do Google, Prabhakar Raghavan, compartilhou mais detalhes sobre o Bard, novo serviço experimental de IA conversacional alimentado pelo LaMDA, e suas aplicações. Ele reforçou ainda a importância de desenvolver a tecnologia de forma ousada e responsável, com informação atual e de qualidade. O Bard está em período de testes de grupos externos e, após um período de feedbacks, deverá chegar ao público nas próximas semanas.

Conheça os principais anúncios a seguir:

Multisearch: novas formas de “dar o Google”

As câmeras dos dispositivos móveis se tornaram uma maneira poderosa de explorar e entender o mundo ao nosso redor. Para se ter uma ideia, o aplicativo Lens é usado mais de 10 bilhões de vezes por mês, já que as pessoas pesquisam o que enxergam por meio das imagens de suas câmeras.

No ano passado, alcançamos um marco importante com o lançamento nos Estados Unidos do Multisearch, uma nova forma de pesquisar usando texto e imagens ao mesmo tempo. No aplicativo do Google, você pode usar o Lens para tirar uma foto ou usar uma captura de tela e adicionar texto à ela, da mesma forma que você pode apontar naturalmente para algo e fazer uma pergunta sobre isso.

A ideia é poder apontar sua câmera naturalmente para algo e fazer uma pergunta sobre isso. A partir de hoje, a experiência começa a entrar no ar em dispositivos móveis em todos os idiomas e países onde o Lens está disponível, incluindo o Brasil.

Recentemente, o Google também adicionou ao recurso de Multisearch a possibilidade de pesquisar localmente. Você pode tirar uma foto com o Lens e adicionar o “perto de mim” na pesquisa para encontrar o que precisa ou fazer a captura de tela de um prato ou um objeto e ver em qual restaurante ou loja mais próxima os itens estão disponíveis. Nos próximos meses, vamos oferecer o recurso para todos os idiomas e países onde o Lens está disponível, incluindo o Brasil.

Com o Lens, o objetivo do Google é conectar as pessoas às informações do mundo. Já é possível usar o Lens para pesquisar usando câmera ou fotos, diretamente na barra de Busca. Agora, será possível pesquisar sobre o que está na tela do seu celular.

Nos próximos meses, você poderá usar o Lens para “pesquisar tela” (Search screen, em inglês) diretamente no Android. Com essa tecnologia, você pode pesquisar o que vê em fotos ou vídeos em sites e utilidades que conhece, como aplicativos de mensagens e vídeos, sem precisar sair deles ou perder o momento.

Maps: Visualização imersiva e Live Indoor View em mais países

No ano passado, o Google compartilhou sua visão para o futuro do Google Maps: um mapa interativo e intuitivo que reinventa como você busca e navega, ajudando as pessoas a fazerem escolhas mais úteis e sustentáveis.

No evento em Paris, a empresa mostrou como a IA está dando vida a essa missão, com atualizações para visualização imersiva e Live View, além de novos recursos para motoristas de veículos elétricos e pessoas que se locomovem por bicicleta ou transporte público.

Um dos recursos mais esperados, a Visualização Imersiva está disponível agora em mais cinco cidades, entre elas Londres, Los Angeles, Nova York, São Francisco e Tóquio e, nos próximos meses, em Florença, Veneza, Amsterdã e Dublin, e traz avanços em IA e visão computacional, com uma imersão que funde bilhões de imagens de Street View e panoramas aéreos para criar um modelo digital.

Digamos que você esteja planejando uma visita ao Rijksmuseum em Amsterdã. Você pode sobrevoar virtualmente o prédio e ver onde e como está a entrada. Com um controle deslizante de tempo, você pode ver ainda a aparência da área em diferentes momentos do dia e como estará o clima.

Também é possível identificar onde tende a ficar mais lotado para ter todas as informações necessárias para decidir quando ir. Se estiver com fome, é possível descer até o nível da rua para explorar os restaurantes próximos e dar uma olhada no interior para entender rapidamente a animação de um lugar antes de fazer sua reserva.

O Google anunciou também que vai expandir a funcionalidade do Live Indoor View para mais de 1.000 novos aeroportos, estações de trem e shoppings em cidades ao redor do mundo, incluindo São Paulo, Londres, Paris, Berlim, Madri, Barcelona, ​​​​Praga, Frankfurt, Tóquio, Sydney, Melbourne, Cingapura e Taipei. Com o Live View, é possível apontar a câmera do celular dentro dos locais para encontrar lojas, caixas eletrônicos e restaurantes.

A partir de agora, no Maps, também será possível seguir a viagem com a visualização resumida da rota ou direto da tela de bloqueio. Já para os carros elétricos, a plataforma anuncia que nos próximos meses será possível visualizar os postos de recarga direto na Busca e no Maps.

Motoristas poderão adicionar paradas obrigatórias de carregamento a viagens mais curtas e o aplicativo vai sugerir o melhor destino com base em fatores como tráfego atual, nível de carga do carro e consumo de energia esperado.

Novos lançamentos tornam o Tradutor mais acessível para os seus 1 bilhão de usuários

Para o Tradutor, o Google anunciou mudanças no design, que foi completamente redesenhado para os usuários do Android e ganhará uma nova interface para os usuários de iOS. A plataforma também oferecerá, nos próximos meses, traduções mais abrangentes e contextuais para palavras únicas, frases curtas e expressões com vários significados, ajudando você a entender melhor e encontrar a melhor tradução com base no contexto.

Isso estará disponível em inglês, francês, alemão, japonês e espanhol nas próximas semanas e será expandido para mais idiomas nos próximos meses.

No Brasil e no mundo, também começam a funcionar as funções de tradução de realidade aumentada no Lens, que misturam perfeitamente o texto traduzido em imagens, tornando-as muito mais naturais.

Sair da versão mobile