InícioNuvemResumo: Principais conclusões do grande evento anual AWS re:Invent 2023

Resumo: Principais conclusões do grande evento anual AWS re:Invent 2023

Date:

Durante o re:Invent 2023, a ênfase foi na Inteligência Artificial Generativa, com a AWS introduzindo novas fichas, modelos de base, melhorias no Amazon Bedrock, um novo assistente de IA chamado Amazon Q, suporte para bases de dados vetoriais e integrações sem necessidade de ETL.

AWS
Imagem: karvanth/ShutterStock

Na conferência AWS re:Invent da semana passada, o destaque foi a inteligência artificial, com a estreia do assistente de AI generativa, Amazon Q, como principal atração. Além disso, houve outras novidades que despertaram o interesse de profissionais de diversas áreas, como novos serviços de ETL, um Hub de otimização de custos e alterações nos preços corporativos para a ferramenta de desenvolvimento baseada na nuvem da AWS, chamada Amazon CodeCatalyst.

Aqui estão as sete principais conclusões da conferência:

Infraestrutura para inteligência artificial generativa.

O provedor de serviços em nuvem anunciou as versões mais recentes de seus chips Graviton e Trainium, os quais foram aprimorados ao longo do último ano para melhor suportar computação de alto desempenho com eficiência energética.

Segundo a AWS, o processador Graviton4 oferece uma melhoria de até 30% na capacidade de processamento, 50% mais núcleos e 75% mais largura de banda de memória em comparação com os processadores Graviton3 da atualidade.

O Trainium2 foi desenvolvido para oferecer treinamento de forma muito mais rápida do que os chips Trainium anteriores, chegando a ser até quatro vezes mais veloz.

No evento Re:Invent, a AWS expandiu sua colaboração com a Nvidia, que agora inclui suporte para a DGX Cloud, um novo projeto de GPU chamado Ceiba e novas instâncias para suportar trabalhos de inteligência artificial gerativa.

A Nvidia anunciou que planeja incorporar seu microsserviço NeMo Retriever na AWS, com o objetivo de auxiliar os usuários na criação de ferramentas de inteligência artificial generativa, como chatbots. O NeMo Retriever é um serviço de IA generativa que possibilita às empresas conectar modelos de linguagem personalizados a dados internos, possibilitando a geração de respostas de IA personalizadas com base nesses dados.

Além disso, a AWS anunciou que será a primeira empresa de serviços de nuvem a disponibilizar os Superchips GH200 Grace Hopper da Nvidia em seu ambiente de nuvem.

VEJA TAMBEM:  Diretrizes recomendadas para operar sistemas de inteligência artificial generativa na nuvem.

Novas formas de fundação para a base da Amazônia.

Novos modelos recentemente incorporados ao Bedrock incluem o Claude 2.1 da Anthropic e o Meta Llama 2 70B, agora amplamente disponíveis. A Amazon também incluiu os modelos Titan Text Lite e Titan Text Express em sua coleção para Bedrock.

Adicionalmente, o provedor de serviços de nuvem incluiu um novo recurso em fase de testes, chamado Amazon Titan Image Generator, à plataforma de desenvolvimento de aplicativos de inteligência artificial.

A Amazon Web Services (AWS) introduziu uma nova funcionalidade no Bedrock que possibilita às empresas analisar, contrastar e escolher o modelo fundamental mais adequado para suas demandas operacionais e comerciais.

A empresa afirmou que o recurso Dubbed, em avaliação no Amazon Bedrock, tem como objetivo facilitar diversas atividades, como a identificação de padrões de referência, a configuração de ferramentas de avaliação e a realização de avaliações. Isso resulta em economia de tempo e dinheiro.

Melhorias em Amazon SageMaker para promover a inteligência artificial generativa.

Com o objetivo de auxiliar as empresas na eficaz implementação e treinamento de modelos de linguagem em larga escala, a AWS lançou dois novos serviços — SageMaker HyperPod e SageMaker Inference — como parte de seu Amazon SageMaker, um serviço de inteligência artificial e aprendizado de máquina.

Em comparação com o método tradicional de treinamento manual de modelos, que pode resultar em atrasos, despesas extras e complicações, a HyperPod simplifica a construção e otimização da infraestrutura de aprendizado de máquina para modelos de treinamento. Isso leva a uma redução de até 40% no tempo necessário para treinar os modelos, de acordo com a empresa.

Na etapa de SageMaker chamada de inferência, o objetivo é auxiliar as empresas a diminuir os gastos com a implantação do modelo e a reduzir o tempo de resposta. Isso é feito ao permitir que empresas executem diversos modelos na mesma instância de nuvem para aproveitar melhor os aceleradores disponíveis.

A AWS também lançou uma nova versão de sua plataforma de aprendizado de máquina de fácil utilização direcionada para profissionais de negócios, chamada SageMaker Canvas.

Os especialistas podem empregar a linguagem natural para processar informações dentro do ambiente de tela a fim de criar modelos de machine learning, conforme informado por Swami Sivasubramanian, líder da área de banco de dados, serviços de análise e machine learning da AWS. A plataforma sem código é compatível com modelos de linguagem de laboratórios como Anthropic, Cohere e AI21.

VEJA TAMBEM:  Será possível que a inteligência artificial substitua os arquitetos de nuvem?

O SageMaker agora inclui a funcionalidade de Avaliação de Modelo, renomeada para SageMaker Clarify, que está disponível no SageMaker Studio.

Amazon Q é o assistente de inteligência artificial generativa para todas as situações.

Na semana passada, o CEO da AWS, Adam Selipsky, apresentou o destaque da conferência re:Invent 2023 da gigante da nuvem, Amazon Q, que é a resposta da empresa ao assistente de AI generativa Copilot impulsionado pela Microsoft GPT.

O Amazon Q é uma ferramenta versátil que empresas podem utilizar em diversas atividades, como criar aplicativos, converter códigos, produzir análises de negócios, servir como assistente de inteligência artificial para aplicações empresariais e auxiliar agentes de atendimento ao cliente com o Amazon Connect.

Amazon Braket é uma plataforma destinada a reservatórios de computadores quânticos.

O serviço de nuvem revelou um novo programa chamado Amazon Braket Direct, que permite aos pesquisadores ter acesso exclusivo e privado a computadores quânticos.

O programa está incluído no serviço de computação quântica da AWS chamado Amazon Braket, lançado em 2020.

De acordo com a AWS, o Amazon Braket Support oferece aos pesquisadores de diversas empresas a oportunidade de acessar de forma privada a capacidade total de várias unidades de processamento quântico (QPUs) sem a necessidade de esperar, e ainda possibilita receber orientação especializada da equipe de especialistas em computação quântica da AWS para suas cargas de trabalho.

Atualmente, o programa Direct tem suporte para a reserva de computadores quânticos IonQ Aria, QuEra Aquila e Rigetti Aspen-M-3.

O IonQ tem um valor de $7.000 por hora, enquanto o QuEra Aquila é avaliado em $2.500 por hora. O Aspen-M-3 é um pouco mais caro, custando mais de $3.000 por hora.

Aprimoramento de despesas centralizado para auxiliar as organizações na diminuição dos custos.

No re:Invent foram reveladas novidades, como o AWS Cost Optimization Hub, um recurso que facilita às empresas a identificação, filtragem, agregação e quantificação de possíveis economias, visando otimizar os custos na AWS.

VEJA TAMBEM:  A ética está ressurgindo em sistemas que utilizam a computação em nuvem.

O provedor de serviços de nuvem afirma que o novo Hub combina todas as diretrizes de economia de custos nos serviços de Gestão Financeira da Nuvem AWS em um único local, que inclui o AWS Cost Explorer e o AWS Compute Optimizer.

Ele inclui os preços e descontos personalizados do cliente em tais sugestões, e elimina duplicações nos resultados e economias para fornecer uma visão unificada das oportunidades de redução de custos de uma empresa, conforme mencionado pela AWS.

O recurso pode auxiliar as equipes de gestão de infraestrutura ou FinOps a identificar possibilidades de redução de despesas.

Zero-ETL, bases de dados vetoriais e outras melhorias no sistema.

Seguindo com seus esforços em direção ao zero-ETL para soluções de armazenamento de dados, a AWS revelou novas conexões do Amazon RedShift com Amazon Aurora PostgreSQL, Amazon DynamoDB e Amazon RDS para MySQL.

As empresas costumam utilizar o processo de extração, transformação e carregamento (ETL) para unir informações provenientes de diversas fontes em um único repositório de dados coerente, que posteriormente é transferido para um data warehouse para análise.

Entretanto, a maioria dos profissionais de engenharia de dados reconhece que a integração de dados de diversas fontes pode ser um desafio complexo e demorado, devido às diversas etapas envolvidas, como limpeza, filtragem, reestruturação e resumo dos dados originais. Além disso, há a questão do custo adicional de manter equipes responsáveis por preparar pipelines de dados para realizar análises, conforme mencionado pela AWS.

Em contrapartida, as recentes integrações sem ETL, conforme mencionado pela empresa, dispensam a realização de ETL entre Aurora PostgreSQL, DynamoDB, RDS para MySQL e RedShift, uma vez que os dados transacionais em tais bancos podem ser replicados quase que instantaneamente no RedShift, pronto para análise.

Outras novidades sobre inteligência artificial gerativa no evento re:Invent incluem melhorias no suporte a bancos de dados vetoriais para Amazon Bedrock. Esses bancos de dados incluem Amazon Aurora e MongoDB, além de Pinecone, Redis Enterprise Cloud e Vector Engine para Amazon OpenSearch Serverless.

A companhia introduziu uma nova opção de preços empresariais em sua plataforma de desenvolvimento em nuvem, chamada de Amazon CodeCatalyst.

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui