Na conferência anual re:Invent da AWS, o CEO Adam Selipsky e outros líderes apresentaram atualizações e novos produtos com o objetivo de competir com as ofertas da Microsoft, Oracle, Google e IBM.

chsyys/FreePik
Durante a conferência anual da AWS:Inventar desta semana, o CEO Adam Selipsky e outros líderes corporativos revelaram novos serviços e melhorias com o intuito de atrair a atenção do setor empresarial para tecnologias de inteligência artificial e competir com concorrentes como Microsoft, Oracle, Google e IBM.
A maior empresa de serviços em nuvem, a AWS, está interessada em aproveitar o crescente interesse na inteligência artificial generativa. De acordo com um estudo da IDC, as empresas devem investir cerca de US$ 16 bilhões em tecnologias relacionadas à IA generativa em todo o mundo até 2023.
Não. Relacionado: Novidades e insights sobre o AWS re:Invent 2024.
Essa despesa, que abrange software de inteligência artificial generativa, junto com hardware de infraestrutura correspondente e serviços de tecnologia da informação e negócios, é projetada alcançar US$ 43 bilhões até 2027, com uma taxa de crescimento anual composta de 73,3%.
Segundo o IDC, esse aumento exponencial é quase treze vezes superior à taxa de crescimento anual composta (CAGR) dos gastos globais em tecnologia da informação durante o mesmo período.
Assim como a maioria de seus concorrentes, especialmente a Oracle, Selipsky explicou que a abordagem inovadora da AWS é composta por três níveis – o primeiro nível é a base, que é usado para treinar ou desenvolver modelos de linguagem grandes (LLMs); em seguida, há uma camada intermediária responsável por criar os modelos de linguagem necessários para desenvolver aplicações; e por fim, há uma terceira camada que engloba as aplicações que utilizam as duas camadas anteriores.
A AWS expande a sua infraestrutura para inteligência artificial generativa.
O provedor de serviços em nuvem anunciou recentemente as versões mais recentes de seus chips Graviton e Trainium, que foram aprimorados ao longo do último ano para suportar computação de alto desempenho de forma mais eficiente em termos de energia.
Segundo a AWS, o processador Graviton4 oferece um aumento de até 30% na capacidade de processamento, 50% mais núcleos e 75% mais largura de banda de memória em comparação com os processadores Graviton3 atuais.
O Trainium2 foi desenvolvido para oferecer treinamento de forma até quatro vezes mais rápida do que os chips Trainium anteriores.
As fichas poderão ser inseridas nos EC2 UltraClusters com capacidade de até 100.000 fichas, permitindo o treinamento de modelos de fundação (FMs) e LLMs de forma mais rápida do que antes. Além disso, a nova geração apresenta uma melhoria na eficiência energética, sendo até duas vezes mais eficiente que a anterior, conforme informado pela empresa.
Concorrentes como Microsoft, Oracle, Google e IBM estão desenvolvendo seus próprios chips para computação de alta performance, inclusive para aplicações de inteligência artificial generativa.
Enquanto a Microsoft recentemente lançou seus processadores Maia AI Accelerator e Azure Cobalt para treinamento de modelos, a Oracle fez uma parceria com a Ampere para desenvolver seus próprios chips, como o Oracle Ampere A1. Anteriormente, a Oracle utilizava chips Graviton em sua infraestrutura de IA. O Google Cloud, braço de computação em nuvem do Google, produz seus próprios chips de IA na forma de Unidades de Processamento de Tensor (TPUs), sendo o TPUv5e seu chip mais recente, que pode ser combinado utilizando a tecnologia Multislice. A IBM, por meio de sua divisão de pesquisa, também está trabalhando em um chip denominado Northpole, capaz de suportar de forma eficiente cargas de trabalho generativas.
Durante o evento Re:Invent, a AWS expandiu sua colaboração com a Nvidia, incluindo a adição de suporte para a DGX Cloud, um novo projeto de GPU denominado Ceiba, e novas instâncias para atender demandas de trabalho de inteligência artificial generativa.
A AWS anunciou que irá fornecer suporte para o cluster de GPUs DGX Cloud da Nvidia, capaz de acelerar o treinamento de inteligência artificial generativa e LLMs com mais de 1 trilhão de parâmetros. O OpenAI também utilizou a DGX Cloud para treinar o LLM que suporta o ChatGPT.
Em fevereiro recente, a Nvidia mencionou que a DGX Cloud estará disponível em serviços como Oracle Cloud, Microsoft Azure e Google Cloud Platform. A Oracle confirmou o suporte à DGX Cloud em março, seguida logo em seguida pela Microsoft.
Os funcionários na re:Invent também divulgaram que novas instâncias do Amazon EC2 G6e, equipadas com GPUs Nvidia L40S, e instâncias G6 com GPUs L4 estão sendo desenvolvidas.
As L4 GPUs são menos potentes que as Hopper H100, porém apresentam uma maior eficiência energética. Essas novas instâncias são voltadas para startups, empresas e pesquisadores interessados em explorar a inteligência artificial.
A Nvidia divulgou seus planos de incorporar seu microsserviço NeMo Retriever na AWS, visando auxiliar os usuários no desenvolvimento de ferramentas de inteligência artificial generativa, como chatbots. O NeMo Retriever é um microsserviço de IA generativa que possibilita às empresas conectar LLMs personalizados a seus dados corporativos, permitindo assim a geração de respostas de IA apropriadas com base em seus próprios dados.
Adicionalmente, a AWS anunciou que será a pioneira em disponibilizar os Superchips GH200 Grace Hopper da Nvidia na nuvem.
A plataforma Nvidia GH200 NVL32 conecta 32 superchips Grace Hopper por meio de interconexões NVLink e NVSwitch da Nvidia. Essa plataforma estará disponível nas instâncias da Amazon Elastic Compute Cloud (EC2) que são conectadas através da virtualização de rede da Amazon (AWS Nitro System) e em clusters hiperescala (Amazon EC2 UltraClusters).
Novas opções de fundação surgem para ampliar as escolhas na construção de aplicações.
Com o objetivo de ampliar a seleção de modelos de fundação disponíveis e simplificar o processo de construção de aplicativos, a AWS anunciou melhorias nos modelos de fundação já existentes em seu serviço de construção de aplicativos de inteligência artificial generativa, o Amazon Bedrock.
Novos modelos foram incluídos no Bedrock, como o Claude 2.1 e o Meta Llama 2 70B da Anthropic, que agora estão amplamente disponíveis. Além disso, a Amazon disponibilizou os modelos Titan Text Lite e Titan Text Express para Bedrock.
Adicionalmente, a empresa de serviços de nuvem introduziu um novo modelo em fase de visualização, denominado Amazon Titan Image Generator, para a plataforma de desenvolvimento de aplicativos de inteligência artificial.
Os modelos de linguagem disponíveis no Bedrock atualmente incluem grandes modelos de linguagem (LLMs) dos estábulos de várias organizações, como AI21 Laboratories, Cohere Command, Meta, Antropic e Stability AI.
A Microsoft, Oracle, Google e IBM, concorrentes no mercado, disponibilizam diferentes tipos de estruturas, tanto proprietárias quanto de código aberto. A Microsoft oferece a Llama 2 da Meta e os modelos GPT da OpenAI, enquanto o Google disponibiliza modelos proprietários como PaLM 2, Codey, Imagen e Chirp. Já a Oracle oferece modelos da Cohere.
A AWS introduziu uma nova funcionalidade no Bedrock chamada Avaliação de Modelo, que possibilita às empresas avaliarem, compararem e escolherem o modelo fundamental mais adequado para suas necessidades operacionais e comerciais.
Apesar de apresentarem diferenças, o Model Assessment pode ser equiparado ao Model Garden do Google Vertex AI, que funciona como um acervo de modelos desenvolvidos pela Google e seus colaboradores. De maneira semelhante, o serviço OpenAI do Microsoft Azure disponibiliza a possibilidade de escolher entre modelos de linguagem extensos, conhecidos como LLMs, que também estão disponíveis no Azure Marketplace.
Amazon Bedrock, o Sage Criador, está adquirindo novas funcionalidades para simplificar o desenvolvimento de aplicativos.
A AWS atualizou tanto o Amazon Bedrock quanto o SageMaker para auxiliar não apenas no treinamento de modelos, mas também no impulsionamento do desenvolvimento de aplicativos.
As atualizações recentes abrangem novos recursos, como aprimoramento da geração de recuperação, funcionalidades para ajustar modelos LLM e a possibilidade de pré-treinar modelos Titan Text Lite e Titan Text Express diretamente do Bedrock. Além disso, a AWS lançou o SageMaker HyperPod e o SageMaker Inference, que facilitam a escalabilidade de LLMs e reduzem os custos de implementação de IA, respectivamente.
O Vertex AI do Google, o Watsonx.ai da IBM, o Azure OpenAI da Microsoft e alguns recursos do serviço de AI generativa da Oracle oferecem funcionalidades semelhantes ao Amazon Bedrock, possibilitando que as empresas personalizem modelos e a capacidade do RAG.
Além disso, é possível comparar o Generative AI Studio do Google, um conjunto de ferramentas de baixo código para ajustar, implementar e supervisionar modelos de base, com o SageMaker Canvas da AWS, uma plataforma de baixo código para profissionais de negócios que foi aprimorada recentemente para auxiliar na criação de modelos.
Cada provedor de serviços de nuvem, incluindo a AWS, disponibiliza bibliotecas de software e serviços como Guardrails para Amazon Bedrock, que auxiliam as empresas a seguir as melhores práticas relacionadas a dados e treinamento de modelos.
Amazon Q é a resposta da AWS para o Copilot impulsionado pela Microsoft GPT.
Na terça-feira, Selipsky revelou a principal atração da conferência re:Invent 2023 da Amazon, que é o Amazon Q, a nova solução da empresa em relação ao assistente de AI gerativa Copilot da Microsoft.
O comunicado de Q da Selipsky foi semelhante à mensagem principal do CEO da Microsoft, Satya Nadella, durante a Ignite and Build, na qual ele revelou diversas integrações e funcionalidades da Copilot em uma variedade extensa de produtos exclusivos, como o Office 365 e o Dynamics 365.
A Amazon Q é uma ferramenta versátil que pode ser empregada por empresas em diversas áreas, como no desenvolvimento de aplicativos, na conversão de código, na criação de insights de negócios e no suporte como assistente de IA para aplicações empresariais, além de auxiliar os agentes de atendimento ao cliente por meio do Amazon Connect.
Os concorrentes não ficam muito atrás. Em agosto, o Google também incorporou seu assistente Duet AI com base em inteligência artificial generativa na maioria de seus serviços em nuvem, como análise de dados, bancos de dados e gestão de infraestrutura e aplicativos.
Da mesma maneira, a Oracle oferece um serviço de inteligência artificial generativa que possibilita às empresas incorporar interfaces baseadas em LLM em suas aplicações por meio de uma API. A empresa afirmou que planeja implementar seu próprio assistente de IA generativa em seus serviços de nuvem e NetSuite.
Outras novidades sobre inteligência artificial generativa no evento re:Invent incluem aprimoramentos no suporte a bases de dados vetoriais para Amazon Bedrock. Além de Amazon Aurora e MongoDB, também são suportadas bases como Pinecone, Redis Enterprise Cloud e Vector Engine para Amazon OpenSearch Serverless.