Relatos do Google I/O por um Empreendedor Brasileiro
31/05/2016

Relatos do Google I/O por um Empreendedor Brasileiro

Oi! Eu sou o Gustavo Goldschmidt, fundador e CEO do Superplayer, uma das startups aceleradas pelo Start-Up Brasil. Para quem não nos conhece, o Superplayer é um serviço de recomendação musical com o objetivo de melhorar cada momento da vida das pessoas através da música. Recentemente fomos acelerados pelo Google Launchpad, na primeira turma do programa, junto com outras 7 startups brasileiras, algumas delas do Startup Brasil, como: a Agrosmart, a Cuponeria e o ProDeaf. Graças ao Launchpad, este ano fomos convidados para acompanhar o Google I/O em Mountain View.

Para quem não sabe o Google I/O é um dos eventos de tecnologia mais importantes do mundo. É nele em que o Google apresenta os lançamentos mais importantes do ano para usuários e desenvolvedores. Juntamente com o F8, do Facebook, e o WWDC, da Apple, estes eventos apontam as tendências tecnológicas dos anos seguintes. Para um empreendedor, isso significa: oportunidades!

Como o pessoal do Start-Up Brasil sabia que eu estava indo ao evento, eles me pediram para que eu compartilhasse um pouco dessa experiência com você. Sei que todos os mais importantes canais de tecnologia (TechCrunch, The Verge, entre outros) vão falar muito de todas as novidades e features anunciadas no I/O. Dessa forma, preferi focar muito mais na minha experiência lá, na percepção e sentimentos de um empreendedor brasileiro participando pela primeira vez de um evento deste porte. Portanto, é sobre isso que você lerá nos próximos 5 a 10 minutos.

Antes de começar a falar do evento em si, eu queria explicar um pouco mais do que se passava na minha cabeça ao embarcar para São Francisco. Embora eu tivesse acompanhado o evento à distância nos anos anteriores, este ano eu tinha a sensação de que ele seria especial. Não porque eu estaria lá, nem porque era o 10o I/O que o Google estava apresentando, mas porque estamos, de fato, entrando em uma era de novas tecnologias que mudarão todo o landscape do mercado de tecnologia nos próximos anos! Duas dessas tecnologias, pelas quais me interesso muito são:

1) a combinação de inteligência artificial com interfaces conversacionais, que dão origem aos famosos assistentes pessoais;

2) as tecnologias de realidade virtual e aumentada.

Embora já estejamos ouvindo falar sobre estes assuntos há alguns anos (afinal o 1o Cardboard do Google foi lançado no I/O de 2014), tenho a sensação que a tecnologia está finalmente pronta para tornar inteligência artificial e VR funcionais: performática, precisa, simples e acessível. Estamos chegando na interseção em que a maturidade tecnológica (até então geek) cruza com a necessidade do mercado, e coisas incríveis acontecem!

Se você não está por dentro do motivo pelos quais estas tecnologias são tão importantes, segue uma explicação (se você conhece bem o assunto, pule para o próximo parágrafo). Com relação aos assistentes pessoais, grandes pensadores e renomados institutos de pesquisas (como a Gartner) acreditam que esta tecnologia irá desbancar a atual economia de apps (isso mesmo, o fim de uma era!) Ou seja, em vez das pessoas instalarem aplicativos para consumir serviços, e ter que gastar espaço em seu telefone e tempo aprendendo a usar um novo aplicativo, elas terão acesso a estes serviços dentro de aplicativos de mensagem ou dispositivos, como o Amazon Echo e o, recém anunciado, Google Home. Já as realidades virtuais e aumentadas são ainda mais fascinantes. Se você já viu a propaganda da HoloLens ou da Magic Leap vai perceber que estas tecnologias têm o poder de criar “realidades paralelas”, impactando somente a sua percepção sobre o mundo, sem, de fato, atuar no mundo físico. Eu sei que eu devo parecer meio louco, mas imagine se você pudesse “construir” tudo o que imagina, se pudesse “ter” as coisas que deseja e melhor, sem gastar dinheiro, ou seja sem de fato “construir” ou “ter”, mas simplesmente “perceber”.

Se o software colocou os meios de produção na mão das pessoas (dos developers), e a internet popularizou o conhecimento, imagine o que a realidade aumentada não poderá fazer! Confesso que estava bastante ansioso com possíveis grandes anúncios do Google com relação a estes pontos!

Neste ano o I/O foi realizado em Mountain View ao lado do headquarter do Google no Shoreline Amphitheater e ocorreu nos dias 18, 19 e 20 de maio (de quarta a sexta). No entanto, para a comunidade de desenvolvedores o evento já começou na segunda-feira dia 16, com um super encontro na sede do Google em São Francisco. O lugar é incrível, com um mega visual da Bay Bridge. Lá membros da comunidade de desenvolvedores do Google de todo o mundo puderam colocar o papo em dia, apreciando uma boa cerveja.

Vista da sede do Google em São Francisco – Foto: Gustavo Goldschmidt

Vista da sede do Google em São Francisco – Foto: Gustavo Goldschmidt

Na terça-feira dia 17, foi realizado um segundo encontro na sede do Google em Sunnyvale. Desta vez foi algo bastante exclusivo, apenas para os desenvolvedores nomeados ao Google Awards, alto executivos do Google e o time da Google Play. Para os que tiveram a chance de participar, foi um ótimo momento para pegar dicas com os melhores desenvolvedores Android e ampliar o networking.

Finalmente, dia 18 de manhã começou o I/O! \o/

Ao chegar no local já dava para perceber que seria um evento e tanto, com as esculturas gigantes de diferentes Androids e boa música nas caixas de som. O Keynote, palestra mais importante do evento, foi a primeira, acontecendo às 10 horas da manhã. Felizmente, eu havia retirei minha credencial no dia anterior e consegui pegar um excelente assento, bem em frente ao palco (Dica: pegue sua credencial na manhã do dia anterior! Os assentos para o Keynote são reservados e distribuídos em ordem de retirada).

Imagens dos Androids na entrada do I/O 2016 – Foto: Gustavo Goldschmidt

Imagens dos Androids na entrada do I/O 2016 – Foto: Gustavo Goldschmidt

Enquanto todos esperavam a entrada do Sundar, CEO do Google, no telão apareceram uma série de aviões de papel e um link para um site. Neste site, pessoas de todo o mundo (que assistiam ao Keynote por streaming) podiam “criar” novos aviões de papel e arremessá-los para o telão. Com o passar do tempo, cada vez mais aviões surgiam, vindos de todos lugares do mundo. Também era possível usar o telefone para caçar esses aviões e colocar o selo da cidade em que você estava. Alguns minutos depois, já haviam milhares de aviões, cada um com selos de diversos países. De fato, o I/O foi assistido por mais de 100 países, tendo, apenas na China, 1 milhão de espectadores! A dinâmica foi emocionante e trouxe ao evento uma sensação de que estávamos fazendo parte de um momento importante, e de que estávamos todos ali com o mesmo propósito: criar um mundo melhor através da tecnologia.

O Keynote começou com tudo, já com o anúncio do Google Assistant, o assistente pessoal do Google, e sua nova casa: o Google Home. O Google Home é um dispositivo muito semelhante ao Amazon Echo, ou seja, uma caixa de som com entrada e saída de áudio que irá lhe auxiliar em diversas tarefas do dia-a-dia. Vale a pena ressaltar que o Google tem uma quantidade monstruosa de informação de toda nossa vida, o que lhe dá uma vantagem tremenda com relação à Amazon, Apple ou Microsoft, na hora de construir uma inteligência artificial que realmente nos conheça.

O Keynote seguiu com o anúncio do Allo, um chat do Google cujo diferencial é a inteligência do Google Assistant. Ou seja, você poderá combinar de jantar com seu amigo e, dentro do chat, solicitar ao Google assistant que reserve mesa para vocês em um determinado restaurante. Se não conhecer nenhum restaurante, tudo bem, o Google Assistant pode indicar um para você!

O Google seguiu ainda falando sobre conversação, dessa vez em vídeo. Ele apresentou o Duo, uma espécie de Skype ou “ligação” do WhatsApp em que você pode ver a pessoa que está te ligando antes mesmo de atender a ligação. Na sequência, o Google falou sobre VR, apresentando o Daydream. O Daydream congrega uma plataforma de apps para VR e um hardware composto por um headset e um controle manual. Embora eu estivesse bastante empolgado para este momento, confesso que fiquei um pouco desapontado. O projeto parece ainda embrionário, sendo apresentado apenas uma imagem não renderizada do hardware, e muito pouca informação sobre a plataforma.

Na sequência foi anunciado o Android N. Você deve estar imaginando, como assim Android N., eles não têm todos nome de doce? É verdade, eles devem ter nome de doce. Dessa vez, o Google quis dar a chance de você participar e ajudá-los a dar um nome para o Android N. Se você estiver se sentindo criativo, é só clicar aqui.

O Android N veio cheio de novidades. Uma que me surpreendeu muito foi o Instant Apps. O Instant Apps basicamente permite que você use um aplicativo, ou melhor, parte de um aplicativo, sem instalá-lo! Ou seja, você clica no link e consegue abrir um vídeo no YouTube, sem que tenha o YouTube instalado. Se for um market place, por exemplo, é possível até realizar o checkout! O mais legal é que essa tecnologia não estará disponível apenas para novas versões do Android, mas para Android a partir do 4.1!

Por outro lado, as páginas web também ganharam mais velocidades e comportamento off-line, com o AMP (accelerated mobile pages) e o Progressive Apps. O Progressive Apps aproxima as páginas web ainda mais da performance dos aplicativos. Com ele, por exemplo, as pessoas conseguem muito rapidamente ver um conteúdo de uma página mesmo sem conexão de internet ou com baixa conectividade. Mesmo com conexão de internet, o Progressive Apps faz com que páginas web consigam ser carregadas mais rapidamente que um app.

Com a evolução dos apps funcionando instantaneamente, e as páginas web carregando off-line eu fico pensando: qual o futuro? Estaremos todos trabalhando apenas na web, ou, ao contrário, os links dos buscadores levarão todos para apps instantâneos? O que você acha?

Outros 2 pontos bem legais foram o novo Android Studio e o Android Wear 2.0. O novo Android Studio tem ferramentas que facilitam o desenvolvimento de interfaces, além permitir gravação de testes e apresentar um compilador que reduz consideravelmente o tamanho dos apks, facilitando a instalação pelos usuários. Já o Android Wear irá, finalmente, ter stand-alone apps, ou seja, você vai poder receber e enviar mensagens, ou ouvir músicas por streaming através do seu relógio, mesmo que seu telefone não esteja por perto. Adeus bermudas de corrida com bolso! É o fim da dependência do telefone.

Finalmente, foi apresentado ao público o novo Firebase. O Firebase tornou-se uma ferramenta essencial para os desenvolvedores que congrega um analytics mobile, crash reports, gerenciador de mídia, sistema de push notification, ferramenta de cenários para testes A/B, entre outras coisas que você deve pagar uma fortuna para fazer em sua startup hoje em dia. O Firebase chega como uma ferramenta essencial para o desenvolvedores mobile, capaz de melhorar o nível de análises, centralizar a informação e, ainda, economizar um bom dinheiro!

Após o Keynote, houve um almoço e, na sequência, começaram as sessões. Eram 10 palcos independentes, rolando sessões com o time do Google sobre os mais diferentes temas: machine learning, VR, Google Play, Firebase, Android Auto, etc. Só havia um problema: as filas! Este, com certeza, foi o ponto baixo do evento. Filas gigantescas começavam a ser formadas uma hora antes de qualquer sessão e, mesmo que você chegasse com 30 minutos de antecedência no local, não havia certeza de que iria conseguir um entrar. Felizmente, todas as palestras que consegui entrar foram excelentes.

Às 15h da quarta-feira, foi apresentado ao público a Context API. Uma API fantástica, que informa ao desenvolvedor todo o contexto do usuário. Basicamente ela nos diz onde o usuário está e o que ele está fazendo, mesmo que nosso app esteja fechado. Desta forma conseguimos fazer recomendações mais precisas para o usuário baseadas neste contexto. Nós do Superplayer tivemos a oportunidade de testar esta API ainda antes do evento. Com ela, desenvolvemos um sistema de recomendação musical que leva em consideração, por exemplo, se o usuário está correndo. Conseguimos ir ainda mais longe e recomendar um determinado tipo de playlist, se ele estiver correndo no parque, e outro, se ele estiver correndo na esteira de sua academia. Tudo isso, com poucas linhas de código. Fantástico, não? E o melhor, essa API executa estas verificações de forma a preservar ao máximo a bateria do usuário. Fiquei muito orgulhoso quando o exemplo de caso do Superplayer foi apresentado no palco e, posteriormente, divulgado pelo TechCrunch. Hoje, nosso aplicativo ilustra a página do Google que ensina os desenvolvedores a utilizar esta nova API.

Exemplo das aplicações da Context API no Superplayer

Exemplo das aplicações da Context API no Superplayer

A Google Play também está cheia de novidades. Não sei se você também tem dificuldades de rodar beta tests dos aplicativos mobile? Nós no Superplayer temos. É difícil fazer o aplicativo chegar na mão do usuário, ou, então, este usuário tem que esperar horas depois de se inscrever no teste para de fato receber o beta. Esse problema parece estar diminuindo. Agora é possível habilitar para usuários se inscreverem no beta do aplicativo direto da loja do Google Play. Ainda, você pode permitir também que usuários tenham Early Access a algum aplicativo que você estiver desenvolvendo. Se você quiser entender como funciona, pesquise pelo Google Allo na Google Play. Outra coisa que ficou muito bacana é o sistema de review do Google. Agora os usuários conseguirão qualificar melhor os seus reviews, e os desenvolvedores poderão comparar estes review com os de seus concorrentes, ponto a ponto, para saber seus pontos fortes e fracos em relação ao mercado. Estes reviews terão integração com o Zendesk, o que irá facilitar muito a vida do pessoal de suporte.

O primeiro dia foi encerrado com 2 belos shows. O primeiro foi da Charli XCX. Você deve conhecê-la da música Boom Clap, que foi trilha sonora do filme A Culpa é das Estrelas. Logo na sequência, entrou no palco o DJ Kygo. Ele tocou grandes hits como Firestone, Stole the Show e Stay. A apresentação foi muito animada e acabou com uma linda chuva de papéis picado. A atmosfera estava incrível! Todo mundo muito animado, dançante e cantando.

Chuva de papéis no final do show do Kygo – Foto: Gustavo Goldschmidt

Chuva de papéis no final do show do Kygo – Foto: Gustavo Goldschmidt

No segundo e terceiro dia, seguiram-se mais sessões e mais novidades. Assisti uma palestra muito legal sobre como VR vai mudar o cinema. Também aprendi bastante sobre a forma de fazer design no Google e como funciona a interface entre designers e desenvolvedores.

Eu poderia ficar aqui “falando” mais 10 páginas de novidades do I/O, mas acredito ter abordado os pontos principais (e mais alguns). Como eu disse, há diversos sites especializados em tecnologia que descrevem muito bem o que foi apresentado no Google I/O (e que você deve visitar!). O que eu quis foi, de fato, passar a minha percepção sobre o evento, para que, no próximo ano, você consiga decidir se é o momento certo para você e sua startup investirem a uma ida no Google I/O. Para mim, ela foi definitivamente uma experiência transformadora. Tenho certeza que os contatos e as novidades que vi lá serão fundamentais para os próximos passos do Superplayer!

Além disso, nada melhor que sair um pouco da rotina para ter uma nova perspectiva sobre as coisas, não?

Voltar