O keynote do Matt Garman, novo CEO da AWS que assumiu em maio de 2024, certamente era um dos momentos mais esperados do AWS re:Invent deste ano e certamente correspondeu às expectativas. Para entender como foi o keynote, é necessário conhecer um pouco do seu histórico: ele foi gerente e diretor do Amazon EC2, principal serviço da AWS e que podemos dizer que começou muito do que temos hoje de nuvem, depois atuou como VP dos Serviços de Computação por 7 anos e, na sequência, mais 4 anos e meio como VP global de Vendas e Marketing. Com esse histórico, Matt consegue conectar um alto nível de complexidade técnica aos desafios de negócios dos clientes da AWS. Durante o keynote, ficou muito claro o porquê da sua escolha para ocupar o cargo de CEO e o reforço do posicionamento da empresa: a AWS como plataforma para builders construírem suas soluções.
A apresentação começou com uma mensagem muito clara:
“We invent so you can re:Invent”
Ou seja, a AWS inventa para que seus clientes possam usar seus serviços para reinventar seus negócios continuamente. Nos últimos anos, a AWS tentou se comunicar mais com buyers do que builders, que no início era seu foco, ao focar em trazer produtos para usuários de negócio. Essa abordagem parece não ter dado muito certo e houve uma mudança esse ano. O foco da apresentação foi da AWS como building blocks, fazendo a analogia às peças de LEGO para construir o que quiser, dando menos destaque aos produtos orientados a usuários de negócio. E nessa linha de LEGOS para construir, a apresentação foi separada em 4 grandes tópicos: Computação, Armazenamento, Bancos de Dados e Inferência.
Computação
Um dos pontos que a AWS tem mais focado seu posicionamento quando falamos de infraestrutura é no seu diferencial competitivo de desempenho em relação aos seus competidores por conta de inovações a nível de hardware e de virtualização. Através do AWS Nitro System, tecnologia que combina hardware e hipervisor, e dos processadores AWS Graviton, os servidores da AWS conseguem entregar mais performance para a mesma configuração em relação a outros provedores de nuvem.
A imagem a seguir mostra o comparativo de número de requisições por segundo entre máquinas equivalentes da AWS, GCP e Azure, onde quanto mais melhor.
A imagem a seguir mostra o comparativo de número de requisições por segundo entre máquinas equivalentes da AWS, GCP e Azure, onde quanto mais melhor.
Já a próxima imagem mostra o comparativo de tempo de resposta das mesmas máquinas, ou seja, quanto menor melhor.
Como podemos ver, em ambos os casos a AWS se destaca para uma mesma configuração, e isso se deve às inovações a nível de hardware. Muitas pessoas acabam não levando essa informação em consideração na hora de escolher seu provedor e acabam fazendo comparações de preço superficiais, sem levar em consideração o desempenho.
E ainda nessa linha, a AWS anunciou a nova geração de processadores Graviton4, que passará a ser utilizado em outros serviços, como o RDS, trazendo um ganho em preço por desempenho. Aqui, já deixo a recomendação para avaliar e testar o uso desses processadores caso ainda não tenha feito. Existe um grande potencial de economia.
Finalizando o bloco de computação, Matt Garman trouxe que o próximo grande desafio é conseguir suportar os workloads de IA e GenAI, que hoje ainda encontram desafio de se pagarem em muitas das implementações, e as melhorias a nível de infraestrutura podem ajudar a inovações nessas áreas a serem mais rentáveis.
Armazenamento
O segundo grande tema abordado foi o de armazenamento. O que já foi um problema muito grande em um mundo pré-cloud, hoje é um conforto na medida que empresas não precisam mais se preocupar com escala de servidores de armazenamento, uma vez que a nuvem consegue entregar capacidade de imediato. Trazendo alguns números compartilhados no keynote, hoje existe mais de 400 trilhões de objetos armazenados no Amazon S3 e mais de USD 4 bilhões foram economizados utilizando o S3 Intelligent Tearing para automaticamente selecionar o tipo de armazenamento mais eficiente de acordo com o padrão de consumo dos arquivos.
Para tomadas de decisões assertivas, é necessário ter dados de qualidade e em quantidade, fazendo que a utilização de armazenamento na nuvem aumente cada vez mais. A promessa da AWS é seguir melhorando nessa área para trazer mais eficiência em Analytics, e foi nessa linha que foi feito um dos principais anúncios do ano: o Amazon S3 Tables.
Com o crescimento da utilização de Data Lakes pelas empresas, cada vez mais empresas estão armazenando dados estruturados no S3, junto de seus dados não-estruturados. Existem tecnologias para consumir esses dados, mas o foco da AWS é sempre em simplificar e facilitar o dia-a-dia e dar maior foco na maior demanda dos clientes. O serviço utiliza o Apache Iceberg por baixo dos panos e promete entregar queries 3x mais rápidas e até 10x mais transações por segundo, em comparação com dados no S3 normal junto com o Iceberg gerenciado pelo próprio usuário, por conta de otimizações na arquitetura do S3 para tal fim.
A melhor parte desse anúncio é que ele já está Generally Available (GA) e pode começar a ser utilizado. E ainda, na linha de armazenamento, outro bom lançamento foi o Amazon S3 Metadata, ainda em Preview, para facilitar a gestão de metadados no S3 e com ferramentas para atualizar os metadados automaticamente, facilitando a gestão dos objetos.
Banco de Dados
Na frente de Banco de Dados foi onde tivemos, na minha opinião, o principal anúncio do ano. Cada vez mais empresas estão utilizando o Amazon Aurora em vez de bancos de dados comerciais, tanto do ponto de vista de eficiência quanto do de custo. E com a crescente adoção, também crescem as demandas por inovações, principalmente quando falamos de uma escala global de utilização.
O Amazon Aurora trouxe uma grande inovação ao separar a camada de computação da camada de dados, permitindo escalabilidade horizontal do banco. Isso já é um grande ganho, uma vez que elasticidade a nível de banco de dados sempre foi um desafio e principal gargalo de muitos sistemas. No entanto, essas funcionalidades estavam limitadas a uma região e ainda havia uma limitação em relação à replicação em outras localidades. Uma estrutura de dados global trás vários desafios em relação a sincronismo, consistência e latência, e o lançamento desse ano promete endereçar esses pontos: o Amazon Aurora DSQL.
O serviço é compatível com PostgreSQL e promete disponibilidade multi-região de 99,999%, consistência forte e escala virtualmente ilimitada. O serviço se aproveita da rede de satélites da AWS, que está crescendo cada vez mais por conta do Projeto Kuiper, para garantir o sincronismo das máquinas na casa dos microssegundos globalmente. O caso de uso e as inovações necessárias para esse serviço foram apresentadas em mais detalhes no keynote do Werner Vogels.
Inferência
E, naturalmente, não poderia faltar o tema de Inteligência Artificial no keynote de um CEO de uma Big Tech. A mensagem principal do evento foi da AWS sendo a plataforma para desenvolvedores construírem em cima, e na linha de IA não foi diferente. A AWS demorou para se posicionar no boom da IA generativa, por mais que já tivesse várias soluções de IA e Machine Learning, e isso foi amplamente criticado. Quando a AWS lançou o Amazon Bedrock com o seu modelo próprio Amazon Titan, a qualidade do modelo também foi questionada. No entanto, com as recentes inovações e após esse AWS re:Invent, o posicionamento da AWS voltou a ser bem visto pelo posicionamento de plataforma de GenAI.
Enquanto outros provedores em focado nos seus modelos, como o ChatGPT e o Gemini, a AWS posiciona o Amazon Bedrock como uma plataforma para desenvolver soluções que utilizam GenAI, trazendo um amplo catálogo de modelos bem como ferramentas necessárias para governança e gestão da aplicação. A empresa acredita que IA Generativa vai ser um componente core de todas as aplicações no futuro e, para isso, é necessário trazer diversos mecanismos de controle, alinhados com os lançamentos deste ano.
Além da tendência de escolha de modelos específicos para objetivos específicos, uma outra tendência é a destilação de modelos maiores para construir modelos menores e específicos. Isso melhora o desempenho e reduz custos, uma vez que não é necessário utilizar o modelo inteiro para obter respostas especializadas. Nessa linha, foi lançado o Model Distillation no Amazon Bedrock. O serviço permite destilar e obter modelos especializados a partir de modelos da Anthropic, Meta e Amazon.
Outra das principais novidades foi o Amazon Bedrock Automated Reasoning Checks, que consegue testar a assertividade dos modelos em escala. Hoje, ainda há várias limitações em utilizar GenAI em sistemas de missão crítica, uma vez que em alguns casos é necessário realmente ter 100% de assertividade na resposta para o usuário e isso é um limitante para a utilização da tecnologia. A solução permite detectar alucinações do modelo em escala e garantir que o LLM está com alta acurácia, possibilitando sua utilização com mais tranquilidade em mais casos.
E outro excelente lançamento foi o Amazon Bedrock Multi-Agent Collaboration. Uma das principais tendências para o próximo ano é o aumento da utilização de agentes de IA. E, nessa linha, uma expectativa ainda maior de evolução é na interação entre diferentes agentes, cada um especializado em uma determinada função, para entregar ainda mais valor. Um exemplo seria um agente focado em busca de passagens aéreas interagindo com um agente focado em gerenciar agenda para entregar uma experiência incrível para planejamento de férias. Esse lançamento traz o conceito de um “Agente Supervisor” para fazer essa orquestração.
Por fim, fechando as novidades em IA no Keynote do Matt Garman, foi anunciado a família de modelos Amazon Nova, novos Foundational Models que prometem entregar mais do que a família anterior do Amazon Titan, e já trazendo novidades para geração de imagem e vídeo. Uma parte interessante desse lançamento, e que reforça o posicionamento da AWS como uma plataforma de builders, é o que foi feito pelo Andy Jassy, ex-CEO da AWS e atual CEO da Amazon, que subiu ao palco para falar como a Amazon utiliza IA e suas visões para o futuro.
Produtividade
Para fechar o keynote, que passou do horário e acabou ficando meio corrido, o Matt falou um pouco sobre alguns dos produtos que a AWS tem desenvolvido: Q for Developers e Q for Business. O Q é um assistente com frentes diferentes e trouxe algumas novidades.
O Q for Developers é um assistente para desenvolvimento de código e foram anunciadas soluções específicas para desenvolvimento de testes unitários, de documentação de código, de code reviews e também uma integração com o Gitlab Duo. Além disso, foram anunciadas soluções específicas para acelerar a modernização de aplicações .Net, VMWare e Mainframe.
No Q for Business, que ajuda a responder perguntas de negócios ao consumir diversas fontes de dados da empresa, a principal novidade foi na ferramenta para automatizar e sugerir melhorias em processos. Inclusive, foi anunciado um plugin que grava a tela para entender os passos para realizar uma determinada atividade e cria um workflow para tal.
Key Takeaways
De maneira geral, o Matt Garman fez um excelente primeiro AWS re:Invent com posicionamento da AWS que considerei muito positivo. Microsoft e Google são excelentes empresas e com muita experiência no desenvolvimento de produtos, e a AWS estava tendo dificuldade nessa disputa. Voltando às origens, com foco em ser uma plataforma para desenvolvedores construírem , enquanto traz alguns produtos para casos de uso específicos foi muito bem recebido pelo público no re:Invent.
Em relação às novidades, algumas das principais recomendações são:
- Avalie a utilização dos processadores Graviton. É bem possível que haja um potencial de economia.
- Cada vez mais produtos de dados são criados e é essencial entender o caso de uso de cada um. O Amazon S3 Tables é excelente, mas deve ser avaliado para entender se é o melhor para o seu desafio específico.
- Cada vez mais serviços vão utilizar IA Generativa para entregar mais valor para os seus clientes, mas isso precisa ser feito com cautela. É necessário escolher o modelo adequado para cada demanda e também construir a aplicação pensando em escala. O cenário de uma PoC é muitas vezes diferente das situações com escala de produção, e é necessário desenvolver a solução com os controles adequados para ter sucesso.
Quer saber como implementar essas e outras novidades do AWS re:Invent 2024 em seus negócios?
Clique aqui para falar com os nossos especialistas e saiba como podemos apoiar você a superar seus desafios!