As empresas podem encontrar maior agilidade ao implementar seus modelos de inteligência artificial em uma nuvem pública que os opera como um serviço, e a AWS está aderindo a essa tendência.

chsyys/ShutterStock
Nos primeiros dias da computação em nuvem, eu administrava um pequeno empreendimento bem-sucedido, adaptando aplicativos corporativos para serem disponibilizados como software como serviço na nuvem. Muitas empresas viam a possibilidade de transformar suas aplicações personalizadas em serviços SaaS lucrativos, acreditando que poderiam gerar uma nova fonte de receita ao atender a uma demanda específica.
Vi várias empresas, incluindo uma de pneus, uma de saúde, um banco e até uma de gestão de segurança, tentando se tornar players de nuvem antes mesmo de a infraestrutura como serviço se tornar popular, e em alguns casos obtiveram sucesso.
Baixe agora o guia do comprador da empresa sobre AI como um serviço (AIaaS) em formato PDF.
Principalmente, as empresas queriam ter um ativo de software como serviço (SaaS), mas não estavam tão interessadas em operá-lo. Investir uma quantia considerável para torná-lo funcional era um obstáculo, e a maioria não estava disposta a fazê-lo. A possibilidade de converter a aplicação empresarial em um ativo SaaS compartilhado não implicava necessariamente que elas deveriam seguir adiante com isso.
“Pode” e “deve” representam considerações distintas. Na maioria das situações, o software como serviço (SaaS) é utilizado exclusivamente dentro da organização, ou seja, a empresa construiu uma infraestrutura na qual é o único cliente.
Novos recursos de inteligência artificial generativa disponibilizados pela AWS.
A AWS lançou um recurso inovador que pretende ser o principal ponto central para os modelos personalizados de IA generativa. O novo recurso, Custom Model Import, foi introduzido na plataforma Amazon Bedrock, focada em empreendedores da AWS, e fornece às empresas a infraestrutura necessária para hospedar e personalizar sua propriedade intelectual de IA interna como conjuntos completos de APIs gerenciadas.
Essa ação está de acordo com a crescente necessidade das empresas por soluções de inteligência artificial personalizadas. Além disso, fornece recursos para aprimorar a compreensão do modelo, melhorar o desempenho e reduzir riscos, elementos essenciais para potencializar o valor da IA sem aumentar os riscos associados ao seu uso.
Na AWS, a funcionalidade de Importação de Modelos Personalizados permite a integração de modelos no Amazon Bedrock, onde eles se unem a outros modelos, como o Llama 3 da Meta ou o Claude 3. Isso oferece aos usuários de inteligência artificial a vantagem de gerenciar seus modelos de forma centralizada junto com os fluxos de trabalho já presentes no Bedrock.
Além disso, a AWS revelou aprimoramentos para o conjunto de modelos de IA Titan. O Titan Image Generator, que converte descrições de texto em imagens, agora está disponível para o público em geral. A AWS não divulga detalhes sobre os dados utilizados para treinar esse modelo, apenas menciona que incluem informações proprietárias e conteúdo pago e licenciado.
Naturalmente, a AWS pode utilizar esses modelos para suas próprias necessidades ou disponibilizá-los como serviços de nuvem para parceiros e outras empresas interessadas em pagar por eles. A AWS ainda não confirmou essa informação. Estou observando quantas empresas considerarão o investimento necessário para migrar para hospedagem LLM, seja para oferecer AI como serviço ou para uso interno. Após a experiência com o fracasso do SaaS há 20 anos, a maioria das empresas optará por desenvolver e aproveitar esses modelos para atender às suas próprias demandas.
Os fornecedores, como a AWS, afirmam que é mais simples desenvolver e implementar inteligência artificial em sua plataforma de nuvem em vez de fazê-lo de forma independente. Contudo, se os custos aumentarem demasiadamente, é provável que ocorra um movimento de transferência desses modelos. Muitos usuários podem descobrir que, ao utilizarem os serviços nativos na AWS, podem ficar dependentes dessa plataforma, ou então enfrentar despesas adicionais para migrar sua inteligência artificial para execução interna ou em outro provedor de nuvem pública.
Qual é a importância disso para você?
Vamos esperar ver muitos novos lançamentos desse tipo no próximo ano, já que os provedores de serviços de nuvem pública buscam expandir seus serviços de inteligência artificial. Eles irão disponibilizá-los rapidamente, devido à crescente demanda por IA. Uma vez que os clientes se acostumam com esses serviços, será difícil abandoná-los.
Eu não vou insinuar que os provedores de nuvem pública tenham más intenções ao adotar essas estratégias, mas é importante notar que essa abordagem também foi amplamente utilizada na venda de serviços de armazenamento em nuvem em 2011. Ao se tornar dependente das APIs específicas de um provedor, é menos provável que você migre para outras plataformas de nuvem. Geralmente, somente quando os custos se tornam muito elevados é que as empresas consideram trazer de volta seus dados ou mudar para um provedor de serviços gerenciados ou data centers compartilhados.
Assim, essa alternativa é recomendada para quem deseja hospedar e impulsionar seus próprios modelos de inteligência artificial de maneira eficiente e expansível. Em resumo, essa é a maneira mais fácil e econômica de implantar esses modelos rapidamente.
O principal problema é a viabilidade do negócio. Aprendemos com nossas experiências passadas de armazenamento em nuvem e computação que, embora comprar algo possa ser mais simples do que criar opções personalizadas, essa não necessariamente é a melhor escolha a longo prazo.
Precisamos analisar cuidadosamente as possíveis consequências e os objetivos de longo prazo das empresas em relação à adoção dessa tecnologia. Há o receio de que decisões precipitadas possam resultar em arrependimentos futuros, visto que já presenciamos situações similares anteriormente.