InícioNuvemA AWS está transferindo os serviços de inteligência artificial da Amazon Bedrock,...

A AWS está transferindo os serviços de inteligência artificial da Amazon Bedrock, incluindo os guarda-redes AI, e outros recursos para estar disponíveis para todos os usuários.

Date:

As atualizações trazem novos modelos de idiomas avançados e a possibilidade de importar modelos personalizados, que está atualmente em fase de teste.

AWS logo on wall
Imagem: astrovariable/Burst

A Amazon Web Services (AWS) anunciou na terça-feira que está tornando algumas funcionalidades do seu serviço de construção de aplicativos de inteligência artificial, Amazon Bedrock, disponíveis para o público em geral.

Estas características abrangem um guarda-redes para inteligência artificial, uma ferramenta de avaliação de modelo e novos modelos de linguagem grande (LLMs).

Não. Artigo: Novidades e insights sobre o AWS re:Invent 2024.

O recurso Guardrails for AI, conhecido como Guardrails for Amazon Bedrock, foi lançado no ano anterior e está disponível em versão de pré-visualização desde então.

Os guardrails para Amazon Bedrock atuam como um assistente dentro do Bedrock e têm a capacidade de bloquear a maior parte do conteúdo prejudicial, podendo ser aplicados em modelos avançados, agentes de inteligência artificial e todos os LLMs disponíveis no Bedrock. A empresa afirmou que essa ferramenta pode bloquear até 85% do conteúdo nocivo.

Esses LLMs são compostos por Amazon Titan Text, Anthropic Claude, Meta Llama 2, AI21 Jurassic e Cohere Command.

As companhias têm a opção de empregar o assistente Guardrails para estabelecer e aplicar salvaguardas adaptadas às normas internas da empresa.

Essas medidas de proteção abrangem assuntos proibidos, restrições de conteúdo e ocultação de informações pessoalmente identificáveis (PII).

Segundo a empresa, é possível estabelecer uma lista de temas indesejáveis para sua aplicação por meio de uma breve descrição em linguagem natural. Além disso, o guardrail pode ser testado para verificar se está atendendo aos requisitos estabelecidos.

Isoladamente, os filtros de conteúdo oferecem opções para que as empresas removam conteúdo prejudicial classificado em categorias como ódio, insultos, sexualidade e violência.

O recurso de redação PII, presente nas Guardrails para Amazon Bedrock em desenvolvimento, possibilitará que as empresas redijam informações pessoais, como endereço de e-mail e números de telefone, a partir das respostas LLM.

VEJA TAMBEM:  Será que é viável poupar dinheiro ao utilizar serviços de computação em nuvem?

Além disso, o Guardrails para Amazon Bedrock se conecta ao Amazon CloudWatch, permitindo que as organizações monitorem e avaliem interações de usuários e respostas de modelos que violem as políticas estabelecidas nos guardrails.

A AWS está tentando alcançar a IBM e outras empresas.

Diferentes provedores de modelos, como IBM, Google Cloud, Nvidia e Microsoft, disponibilizam serviços semelhantes à AWS para auxiliar as empresas a gerenciar suas implementações de inteligência artificial.

De acordo com Hyoun Park, analista principal da Amalgam Insights, a AWS está em sintonia com outras empresas como IBM, Google, Microsoft, Apple, Meta e Databricks que oferecem serviços de inteligência artificial com foco em governança.

É evidente que o sucesso financeiro na área da inteligência artificial estará ligado à governança, confiança, segurança, precisão semântica e expertise nas respostas oferecidas. A AWS não poderá competir na área de IA somente por ser mais rápida e maior, mas também terá que garantir níveis de proteção iguais ou superiores aos de outros provedores de IA, a fim de oferecer uma experiência focada no cliente, conforme explicado por Park.

Entretanto, destacou-se que a IBM se destaca em relação aos demais fornecedores de modelos ou IA no desenvolvimento de guardiões para IA, devido à sua experiência de mais de dez anos com o assistente de IA Watson.

Apesar de não terem alcançado pleno sucesso, os esforços da IBM em áreas como saúde, governo e clima proporcionaram valiosa experiência no manuseio de conjuntos de dados desafiadores, o que impulsionou o desenvolvimento de soluções de inteligência artificial. De acordo com Park, a AWS está em estágio inicial para implementar salvaguardas de IA e ainda não é tardio para compensar a desvantagem, dado que a introdução de LLMs e inteligência artificial generativa está em fase inicial.

VEJA TAMBEM:  As vantagens e desvantagens das operações de nuvem sem intervenção.

Habilidade de incorporar um modelo personalizado no Bedrock por meio de importação.

Como parte das melhorias, a AWS está introduzindo uma nova função de importação de modelo personalizado que permitirá às organizações usar seus próprios modelos personalizados no Bedrock. Isso deve ajudar a diminuir a carga de trabalho operacional e acelerar o processo de desenvolvimento de aplicativos.

A funcionalidade foi incluída devido à crescente demanda das empresas que desenvolvem seus próprios modelos ou utilizam modelos disponíveis publicamente em sua área de atuação, com seus próprios dados. Eles buscam acessar ferramentas como bases de conhecimento, guarda-redes, avaliação de modelos e agentes por meio do Bedrock, conforme explicado por Sherry Marcus, diretor de ciência aplicada na AWS.

Entretanto, de acordo com o Amalgam Insights’ Park, a AWS provavelmente irá incluir a API para auxiliar as empresas que possuem uma grande quantidade de dados na AWS e que utilizaram o serviço SageMaker para treinar seus modelos de inteligência artificial.

Isso também auxilia as empresas a efetuarem pagamentos por todos os serviços por meio de uma única conta, ao invés de ter que estabelecer múltiplos acordos com fornecedores, explicou Park, indicando que essa abordagem visa demostrar que as demandas de trabalho associadas à inteligência artificial são mais eficazmente suportadas na AWS.

A funcionalidade de importar um modelo personalizado, que está em fase de visualização, pode ser utilizada por meio de uma API gerenciada dentro do Bedrock e é compatível com três estruturas de modelo aberto, como Flan-T5, Llama e Mistral.

Habilidade de avaliação de modelos e LLMs está se tornando mais amplamente disponível.

A AWS está disponibilizando para todos os usuários a capacidade de avaliação do modelo Bedrock, que foi apresentada no re:Invent no ano anterior.

VEJA TAMBEM:  Por qual motivo a sua infraestrutura multicloud está apresentando baixa velocidade?

A empresa declarou que o Modelo Dublado no Amazon Bedrock foi desenvolvido para simplificar diversas atividades, como a identificação de referências, a configuração de ferramentas de avaliação e a realização de avaliações, resultando em economia de tempo e recursos.

As melhorias feitas no Bedrock também trazem novidades, como a inclusão de novos LLMs, como o recém-chegado Llama 3 e a série de modelos de Comando de Cohere.

Simultaneamente, o provedor de serviços em nuvem está lançando o Amazon Titan Image Generator para o público em geral.

O modelo mostrado no ano passado apresentou uma característica de marca d’água invisível durante os testes. De acordo com Marcus, a versão comum do modelo incluirá marcas de água invisíveis em todas as imagens geradas.

“Marcus anunciou que em breve será divulgada uma nova API de detecção de marca d’água em fase de teste, a qual será capaz de identificar se uma imagem contém uma marca d’água da AWS ou não.”

Outra importante novidade no LLM é a inclusão do modelo V2 do Amazon Titan Text Embeddings, que ressalta que a AWS é especializada em situações que demandam geração ampliada de recuperação (RAG), como busca de informações, chatbots de perguntas e respostas, e recomendações personalizadas.

Segundo Marcus, o novo modelo V2, a ser lançado na semana que vem, diminui os gastos com armazenamento e processamento, possibilitando o que a AWS descreve como integrações versáteis.

Conforme Marcus explicou, a implementação de soluções flexíveis pode diminuir em até quatro vezes o espaço de armazenamento necessário, resultando em uma significativa redução nos custos operacionais, ao mesmo tempo em que preserva 97% da precisão nos cenários de uso de RAG.

A Amazon Bedrock atualmente atende clientes como Salesforce, Dentsu, Amazon, Pearson, entre outros.

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui