Com avanço em tecnologia de processamento, empresa passa a operar mais funções em aparelhos dos usuários e menos na nuvem
ROTANEWS176 E POR ESTADÃO CONTEÚDO 07/05/2019 12h44 Bruno Capelas
Um mundo mais conectado, cada vez mais operado por voz e, supostamente, mais privado: essa é a visão que o Google apresentou nesta terça-feira, 7, durante a conferência de abertura do I/O, seu evento de desenvolvedores anual, realizado em sua sede em Mountain View, Califórnia. Neste ano, a empresa dobrou sua aposta em inteligência artificial para prever, com cada vez mais eficiência, o que o usuário precisa, ao mesmo tempo em que reiterou sua preocupação com a privacidade das pessoas — em resposta a anos de críticas, dúvidas e até mesmo questionamentos oficiais, com direito a depoimentos de Sundar Pichai, seu presidente executivo, no Congresso americano.
Se aparentemente podem ser opostas, as duas pontas — IA e privacidade — vão começar a andar cada vez de mãos dadas nos dispositivos que usam algum sistema do Google. Um bom exemplo está no Google Assistente: a empresa anunciou um avanço na tecnologia de processamento de linguagem feita pelo assistente de voz.
Reprodução/Foto-RN176 Se aparentemente podem ser opostas, as duas pontas — IA e privacidade — vão começar a andar cada vez de mãos dadas nos dispositivos que usam algum sistema do Google Foto: Reuters
Desde o início do ano, o Google conseguiu reduzir, de 100 GB para 0,5 GB, a plataforma necessária para codificar os comandos de voz do usuário, entendê-los e dar uma resposta satisfatória. Não é algo pequeno: agora, é possível inserir esse sistema em praticamente qualquer dispositivo — até mesmo um smartphone simples. Há duas vantagens claras: a primeira é de não precisar enviar os arquivos do usuário até a nuvem e recebê-los de volta, o que aumenta a eficiência do processo e, ao mesmo tempo, a privacidade. A segunda é tornar esse sistema acessível para cada vez mais usuários.
É esse sistema que permitirá, por exemplo, uma das novidades mais interessantes anunciadas pela empresa nesta manhã: as Live Captions, espécie de legenda automática que aparecerá em qualquer vídeo ou áudio visto pelo usuário em seu celular. Na demonstração feita na Califórnia, foi possível ver uma legenda mostrando o conteúdo de uma mensagem de áudio, num vídeo caseiro, no YouTube ou até mesmo em produtos de outras empresas, como no Instagram. Funciona até mesmo sem que o usuário esteja ouvindo o som — o que pode ser ótimo para quem precisa, por exemplo, participar de uma teleconferência em um lugar movimentado.
A empresa também está explorando como essa tecnologia pode ser usada em ligações telefônicas — em um recurso chamado Smart Reply, que pode ser útil para quem tem problemas na fala, por exemplo. Funciona assim: de um lado, uma pessoa fala, mas do outro, o usuário digita o que quer dizer e o Google Assistente é quem fala em nome dele, em uma interface que lembra bastante qualquer aplicativo de mensagens instantâneas.
Outra mudança feita pela empresa está no que o Google chama de Federated Learning — a capacidade de aprender com um conjunto de dados, sem necessariamente individualizá-los. Uma boa aplicação estará presente, em breve, no teclado do Google, o Gboard, usado no sistema operacional Android: ele será capaz de aprender “novas palavras” a partir não só dos costumes do usuário, mas também de um grupo de usuários em um determinado local — fazendo com que, por exemplo, o teclado não “rejeite” a expressão BTS, que pode soar como erro de digitação mas é o nome da famosa banda de k-pop. Ao mesmo tempo em que aprende mais com o todo, o Gboard fica menos restrito à utilização de um único usuário.
Há ainda uma série de novidades de controle próprio do usuário com privacidade — em breve, será possível utilizar um modo “incógnito” no Google Maps ao se deslocar pelo mundo, da mesma forma que se usa uma aba anônima no Google Chrome. “Privacidade e segurança são para todos e é um trabalho que nunca está pronto”, destacou Sundar Pichai, presidente executivo do Google, durante a apresentação. Ele destacou ainda uma função lançada pela empresa na semana passada, que permitirá ao usuário escolher por quanto tempo cada aplicativo do Google vai reter seus dados para melhorar suas sugestões — as opções, por enquanto, são 18 meses, 3 meses ou apenas quando a pessoa desejar.
Ainda na área de processamento de fala, o Google anunciou ainda uma iniciativa interessante, o Project Euphonia: a empresa está gravando a forma como pessoas que tem problema na fala se comunicam para aprender a entender isso também — pode ser útil para que pessoas com trauma pós derrame ou acidentes consigam se comunicar também com o Google Assistant.
Secretário
Outra novidade do evento desta terça-feira foi uma atualização para o sistema Duplex, que marcou o I/O do ano passado. Em 2018, o Google causou sensação ao anunciar um sistema de inteligência artificial capaz de ligar para um restaurante e realizar uma reserva, conversando com um ser humano como se fosse um igual. O sistema já está disponível em 44 dos 50 Estados dos EUA e tem sido utilizado para fazer inúmeras reservas.
Agora, uma atualização desse sistema permitirá que o usuário ganhe ainda mais tempo: chamado de Duplex on the web, ele será capaz de fazer reservas online preenchendo longos formulários — como o aluguel de um carro ou a reserva de um hotel. De posse dos dados da pessoa e conhecendo seus desejos, o sistema será capaz de executar os passos — cabendo ao usuário apenas dar OK ao final do processo.