Apresentação do Google I / O 2019: Tudo o que você precisa saber!

Autor: Laura McKinney
Data De Criação: 10 Lang L: none (month-011) 2021
Data De Atualização: 1 Julho 2024
Anonim
Apresentação do Google I / O 2019: Tudo o que você precisa saber! - Tecnologias
Apresentação do Google I / O 2019: Tudo o que você precisa saber! - Tecnologias

Contente



O Google I / O 2019 está à nossa disposição e um dos eventos mais importantes é o primeiro. A palestra deste ano tem muitas promessas, com os tópicos esperados que vão desde um novo telefone até a próxima versão beta do Android Q e várias outras coisas. Estaremos assistindo ao vivo pelo vídeo acima e atualizando este artigo à medida que a palestra progride.

Além disso, esperamos ver algumas coisas sobre aplicativos e jogos junto com os produtos da Página inicial do Google. Também temos Eric Zemen, David Imel e Justin Duino para oferecer ainda mais cobertura do Google I / O 2019 nos próximos dias.

A transmissão ao vivo

Você pode assistir à transmissão ao vivo com o vídeo acima às 13:00 EST, quando o evento começar. Esperamos que o link continue funcionando depois que o evento terminar. Abaixo, atualizaremos o artigo à medida que mais informações estiverem disponíveis.


Abertura do Google I / O 2019

Abrimos o Google I / O 2019 com uma montagem com jogos, realidade virtual, realidade aumentada e alguns Star Trek e Night Rider. Sundar Pichai sobe ao palco para começar a apresentação falando sobre coisas que o Google vem fazendo nas últimas semanas e ele faz uma piada sobre uma próxima partida de futebol do Liverpool. Ele fala sobre o aplicativo de E / S deste ano que usa realidade aumentada para ajudar os visitantes a se locomoverem este ano. Este também é um novo recurso no Google Maps.

Pichai fala brevemente sobre todos os serviços úteis do Google, incluindo Google Fotos, Google Maps e Google Assistant. Ele ainda fala sobre produtos que bilhões de pessoas usam em todo o mundo, com ênfase na Pesquisa do Google e no Google Notícias. O recurso de cobertura completa do Google Notícias também está direcionado para a Pesquisa do Google, incluindo uma linha do tempo completa de eventos e notícias de várias fontes. O Google também está trazendo podcasts de indexação para a Pesquisa Google, e você pode ouvir diretamente dos resultados da Pesquisa Google.


Aparna Chennapragada, Pesquisa do Google, Câmera e realidade aumentada

Leia nossa cobertura de modelos de realidade aumentada que chegam à Pesquisa do Google!

Aparna entra no palco para falar sobre realidade aumentada e câmera na Pesquisa do Google. O primeiro novo recurso de pesquisa permite ver modelos 3D diretamente da Pesquisa Google e usar a realidade aumentada para colocar esses objetos no aplicativo da câmera. Você pode até fazer algumas coisas legais, como procurar sapatos e ver como ele se encaixa com sua roupa. Por fim, veja modelos 3D no aplicativo da câmera e ele parece ser dimensionado de acordo com o que estiver no aplicativo da câmera. A demo mostrou um ótimo tubarão branco no palco e é muito impressionante.

O Google está casando realidade aumentada com a câmera e a Pesquisa durante o próximo ano.

Aparna segue para o Google Lens, disponível na maioria dos telefones Android mais recentes atualmente. Ele foi incorporado ao Google Fotos, Assistente e Câmera. Mais de um bilhão de pessoas já usaram lentes. O Lens agora tem a capacidade de trabalhar de forma nativa com a câmera e destacar coisas como pratos populares em um menu sem que o usuário faça nada com os dados do Google Maps. A lente também pode calcular a gorjeta e dividir os totais dos recibos de restaurantes em tempo real a partir do aplicativo da câmera sem muita informação do usuário. O Google está fazendo parceria com muitas empresas para melhorar essas experiências visuais.

Por fim, o Google está integrando o Google Translate e a câmera na barra de Pesquisa do Google para ler em voz alta os sinais em seu idioma nativo ou traduzir em tempo real, como você já pode fazer no aplicativo Google Translate. Aparna o exibe no videoclipe de uma mulher indiana que nunca teve uma educação adequada usando o aplicativo para viver uma vida normal. Esse novo recurso funciona em telefones que custam tão pouco quanto $ 35 e usa uma quantidade muito pequena de espaço para tornar acessível o maior número possível de lugares.

Pichai retoma o palco

Leia mais sobre o Google Duplex na Web aqui!

Sundar sobe ao palco novamente e começa a falar sobre o Google Duplex e a Pesquisa do Google em termos de reservas. Você pode pedir ao Assistente para fazer reservas para você e, bem, ele faz. A demo no palco foi muito impressionante. Isso funciona com o Calendário, Gmail, Assistente e muito mais. Esse novo recurso é chamado Duplex na Web e o Google terá mais informações sobre ele ainda este ano.

Sundar também anunciou que os modelos de voz do Google passaram de 100 GB para 0,5 GB, tornando-o pequeno o suficiente para armazená-lo diretamente no telefone. Isso deve ajudar a tornar o Assistente mais rápido. Pichai joga para Scott Huffman por mais.

Scott Huffman, assistente do Google e modelos de voz

O Assistente do Google será dez vezes mais rápido em breve!

Scott sai e fala sobre como tornar o Google Assistant mais rápido do que nunca. Outro Googler, Maggie, em seguida, toca uma dúzia de comandos e o Assistant lida com todos eles com desenvoltura para mostrar o quanto mais rápido o Assistant pode ficar. Em seguida, ela demonstra o Assistente do Google trabalhando sem usar a palavra quente e usa sua voz para responder a um texto, encontrar uma foto de um animal em Yellowstone e enviar a foto de volta ao texto. Ela passa a usar o Assistente para encontrar um horário de voo e enviar essas informações por texto também. Tudo foi feito com voz, sem nenhuma entrada de toque. É muito impressionante ver o Assistente entender quando Maggie estava ditando e quando ela estava chamando o Google para concluir um comando.

O Google Assistant está prestes a ficar muito mais rápido, fácil de usar e mais poderoso.

Scott também anunciou as Escolhas para você, um novo recurso da Página inicial do Google que tenta personalizar seus resultados com base nas coisas que o Assistente o ajudou a fazer antes. Isso inclui instruções, receitas e outras áreas em que seus resultados podem ser diferentes devido às suas preferências pessoais. O Google chama isso de Referências pessoais. Você pode perguntar ao Google como está o tempo na casa de sua mãe e o Google saberá onde você quer dizer, o tráfego entre você e esse local e como está o tempo na casa de sua mãe. O Google Assistant apenas o obtém.

Por fim, Scott aborda melhorias nos produtos do Google no carro, incluindo comandos fáceis para músicas, mapas e muito mais. Ah, e o Assistente no Google Homes agora pode parar os alarmes com um simples comando para parar. Scott conclui seu segmento com um divertido videoclipe de montagem de pessoas usando o Google Assistant.

Sundar volta novamente!

Sundar retorna e reitera a meta do Google de criar um Google mais útil para todos. Ele também fala sobre aprendizado de máquina e IA, com o foco em querer que eles não sejam tendenciosos como os humanos. O Google está trabalhando em um novo modelo de aprendizado de máquina chamado TCAV para mostrar o que a IA usa em suas determinações. O Google quer usar isso para remover preconceitos e ajudar as pessoas a usar a tecnologia de IA.

Pichai segue para a segurança do usuário com uma linha do tempo dos recursos de privacidade e segurança do Google, incluindo o Modo de navegação anônima e muitos outros aprimoramentos ao longo dos anos. Suas configurações de segurança em breve serão ainda mais fáceis de acessar pelo Google Chrome, com sua foto de perfil no canto superior direito. Um novo recurso lançado hoje (7 de maio de 2019) permitirá que você exclua dados antigos coletados pelo Google de forma contínua. Além disso, o Modo de navegação anônima estará disponível em breve no Maps, para que você possa pesquisar itens sem que ele seja salvo na sua conta. Chave de privacidade é outro recurso que o Google lançou hoje.

O Google continua aprimorando seus recursos de segurança e privacidade com acesso mais fácil.

O aprendizado federado é outra coisa nova que o Google vem fazendo. Ele permite que o Google aprenda o que você fez, faça o upload para os servidores do Google, combine-o com todos os outros e faça o download novamente do novo modelo para produtos mais inteligentes. Pichai usou Gboard como exemplo. O Google também está focado na acessibilidade para ajudar pessoas com deficiência. Pichai fala sobre o Live Transcribe e outros aplicativos de acessibilidade nos últimos meses.

O Live Caption é outro novo aplicativo para legendar coisas para deficientes. O Google deseja combinar toda essa tecnologia em Duplex, Resposta Inteligente e Composição Inteligente para ajudar os surdos e mudos a facilitar ainda mais as chamadas telefônicas funcionais com um novo recurso chamado Live Relay. Isso tudo faz parte do trabalho do Google, chamado Projeto Euphonia. Sundar termina esta parte da apresentação, mostrando como o Google cria modelos de fala para quem não consegue falar bem devido a surdez, acidente vascular cerebral ou outros problemas.

Stephanie Cuthbertson, Android, inovação de SO móvel

Stephanie começa sua apresentação dizendo que mais de 2,5 bilhões de dispositivos Android estão ativos no momento. Ela então fala sobre telefones dobráveis. O Android Q oferecerá suporte a dobráveis ​​nativamente para ajudar os OEMs a criar melhores. Isso inclui a continuidade do aplicativo, um recurso do Samsung Galaxy Fold. O Android Q também suporta nativamente o 5G. Stephanie leva Tristan ao palco para falar sobre o Live Caption trabalhando no Android Q. Ele demonstra a legenda ao vivo e funciona muito bem e fez no modo avião para mostrar que é possível fazer offline. Todo o modelo de fala ao vivo funciona no dispositivo com apenas 80 MB, abaixo dos 2 GB.

Stephanie fala sobre o Smart Reply, um recurso mais antigo com alguns truques novos no Android Q. Ele funciona para todos os aplicativos de mensagens no Android agora. Você também recebe ações para economizar mais tempo. Um modo escuro completo e real também está chegando ao Android Q, finalmente! É um verdadeiro tema preto para vocês OLED por aí, pelo menos de acordo com as capturas de tela. No entanto, o foco central do Android Q é segurança e privacidade. Stephanie disse que o Android obteve as melhores pontuações em 26 dos 30 testes de proteção e segurança contra malware.

O Android Q apresenta um menu de configurações completo para privacidade. Permite controlar essas coisas com muito mais facilidade no seu telefone. O Android Q também avisa quando os aplicativos usam sua permissão de localização e como você compartilha dados de localização. Outro novo recurso é a capacidade de aplicar atualizações de segurança sem nunca reiniciar o dispositivo. Deve funcionar exatamente como atualizar um aplicativo. Isso é muito empolgante para os OEMs que não enviam atualizações de segurança com frequência.

Stephanie gira para se distrair. Um novo recurso do Android é o Modo de Foco. Você pode desativar os aplicativos que distraem e eles não enviam uma notificação. Isso também estará disponível no Android Pie neste outono. Além disso, o Android Q possui controles familiares nativos, incluindo o Family Link. O Family Link permite definir limites diários de tela, aprovar instalações de aplicativos e até definir horários de dormir. A versão beta está disponível em 21 dispositivos, incluindo todos os pixels.

Rick Osterloh, IA, software e hardware

Rick entra no palco para falar sobre alguns tópicos mais amigáveis ​​ao desenvolvedor. Ele inicia sua apresentação com um videoclipe sobre o Google Home. Rick fala sobre reunir todos os produtos Home com o nome Nest. Inclui todos os produtos atuais da Nest, além de vários itens domésticos. Rick anuncia o Nest Hub, bem como o Nest Hub Max. A câmera nesses dispositivos é utilizável como uma câmera de segurança como uma Nest Cam. Também é utilizável com o Google Duo.

A câmera também possui uma luz indicadora verde e um interruptor na parte traseira do dispositivo que desliga a câmera para sua segurança e privacidade. Teremos mais detalhes em mãos sobre esses dispositivos. Esses dispositivos usam o aprendizado de máquina para identificar gestos com as mãos para funções de controle adicionais, como o LG G8. Esses dispositivos estão disponíveis no próximo verão. O Nest Hub também estará disponível em 12 novas regiões. Confira nosso hands-on com o Nest Hub Max aqui!

Sabrina Ellis, Pixel 3A e 3A XL

Rick joga para Sabrina Ellis para falar sobre os dois novos dispositivos Pixel. O Pixel 3A e 3A XL começam em apenas US $ 399. Eles vêm em três cores, incluindo uma nova, a Purple-ish. Esses dispositivos também vêm com um fone de ouvido de 3,5 mm. Sabrina faz uma piada sobre o novo Pixel 3a poder entregar fotos de alta qualidade sem o hardware caro. É basicamente como os Pixels mais caros, apenas com um processador menos poderoso.

A partir de hoje, os dispositivos Pixel poderão usar o novo modo AR no Google Maps. Sabrina gira e fala sobre todos os recursos do Android Pie, Android Q e Pixel que o Pixel 3A e 3A XL também possui. Eles também estarão disponíveis em vários países e não serão exclusivos da Verizon nos EUA. Eles estão disponíveis a partir de hoje. No entanto, eles não têm a atualização gratuita de armazenamento de qualidade máxima para o Google Fotos. Os usuários estão restritos à versão de alta qualidade que todos os outros recebem.

Jeff Dean, AI (novamente)

Jeff sobe ao palco para falar sobre IA. Esta parte da palestra é um pouco mais técnica, falando sobre a fluência linguística dos computadores. Isso inclui Representações de codificadores bidirecionais de transformadores (BERT) ou a capacidade dos computadores de entender o contexto das palavras. Eles treinam o modelo usando uma versão divertida e de alta tecnologia de bibliotecas loucas. Jeff então fala sobre o TensorFlow e atualiza a plataforma no último ano. Ele joga para Lily Peng para mais informações.

Lily Peng, tecnologia médica

Lily Peng sobe ao palco para falar sobre o modelo de aprendizado de máquina do Google para usos médicos. Isso inclui coisas como visão, diabetes, oncologia e outras. Ela fala ainda mais sobre o uso de aprendizado de máquina para visualizar tomografias computadorizadas para uma melhor detecção de lesões malignas no câncer de pulmão, com um sucesso surpreendentemente bom. É nos estágios iniciais, no entanto. Ela joga de volta para Jeff.

Voltar para Jeff para obter mais IA e aprendizado de máquina

Jeff volta ao palco para falar sobre pesquisa, engenharia e construção do ecossistema. Ele fala sobre modelos de detecção de inundações e como isso ajudará as pessoas na Índia a evitar inundações este ano. É um belo casamento de milhares de fotos de satélite, aprendizado de máquina, redes neurais e física. O Google quer melhorar ainda mais esses modelos para garantir que todos saibam quando um lugar vai inundar.

O Google fez parceria com 20 organizações para trabalhar em alguns dos maiores problemas do mundo. Isso inclui imagens antimicrobianas, acelerando os tempos de resposta a emergências e redes de monitoramento de alta resolução para melhorar a qualidade do ar. Essas empresas também receberão fundos gratuitos. Jeff, em seguida, encerra a palestra do Google I / O 2019 com algumas palavras inspiradoras sobre a próxima década.

Embrulhar

Qual foi sua parte favorita da palestra do Google I / O 2019 deste ano? Conte-nos nos comentários! Confira também o nosso podcast sobre o assunto, vinculado logo acima ou está disponível no seu podcatcher favorito!

Apó ano de litígio global, Apple e Qualcomm reolveram toda a diputa.A Apple pagou um acordo para a Qualcomm, e a dua emprea ainaram um acordo para trabalharem junta novamente.Ee reultado ine...

A Verizon é atualmente a egunda maior operadora de telefonia móvel no Etado Unido, com 156,1 milhõe de ainante que abalaram o plano da Verizon Wirele em junho de 2019 (a AT&T é...

Recomendado