Não repetiremos os mesmos equívocos do passado, quando implantamos modelos de idiomas extensos na nuvem de maneira cara e arriscada.

Nos últimos dois anos, tenho me dedicado principalmente a projetos de inteligência artificial generativa utilizando modelos de linguagem grandes (LLMs) em vez de sistemas convencionais. Tenho sentido saudades da computação em nuvem sem servidor. Suas aplicações abrangem desde a melhoria da IA em conversações até a oferta de soluções analíticas complexas em diversos setores e funções adicionais. Muitas empresas optam por implementar esses modelos em plataformas de nuvem devido à disponibilidade de um ecossistema consolidado de provedores de nuvem pública, sendo esta a opção mais prática. No entanto, essa abordagem não é econômica.
As vantagens adicionais das nuvens incluem a capacidade de expansão, eficiência e acesso a recursos computacionais avançados, como GPUs sob demanda. A implementação de modelos de linguagem em plataformas de nuvem pública envolve aspectos menos divulgados que podem ter um impacto importante no resultado final. A falta de especialistas em IA e a falta de experiência nesse campo contribuem para lacunas em nosso conhecimento sobre esse processo.
Vamos descobrir três estratégias menos populares para implementar LLMs em ambientes de nuvem que mesmo especialistas em IA podem não conhecer. Com tantos profissionais ganhando salários elevados, pode ser interessante questionar os métodos eficazes. Atualmente, observo uma maior incidência de erros à medida que muitos se apressam em adotar a inteligência artificial generativa de forma descontrolada.
Baixe agora mesmo o guia do comprador da empresa PDF AI como um serviço (AIaaS) hoje!
Administração da eficiência dos custos e da capacidade de expansão.
Uma das vantagens de utilizar plataformas de nuvem para implementar LLMs é a possibilidade de ajustar os recursos conforme a demanda, sem a necessidade de planejamento de capacidade, já que as plataformas de nuvem oferecem recursos que podem ser alocados facilmente com um simples clique ou de forma automática.
No entanto, é importante notar que estamos prestes a repetir os mesmos equívocos que fizemos ao adotar a computação em nuvem pela primeira vez. Muitas pessoas precisam de auxílio para gerenciar custos ao escalar eficientemente. É fundamental lembrar que os serviços de nuvem geralmente cobram com base nos recursos de computação utilizados, operando de forma semelhante a um serviço público. Quanto mais recursos você utilizar, maior será o custo. Com a previsão de custos mais elevados e maior consumo de energia associados às GPUs, essa é uma questão central a ser considerada ao utilizar LLMs em provedores de nuvem pública.
Certifique-se de utilizar ferramentas de gestão de custos, sejam elas disponibilizadas por plataformas de nuvem ou por fornecedores especializados em finanças operacionais (finops). Exemplos incluem a implementação de autoescalabilidade e agendamento, a escolha de tipos de instâncias apropriados e o uso de instâncias preemptíveis para otimizar os custos. Além disso, é importante monitorar regularmente a implantação para ajustar os recursos com base no uso real, evitando assim a sobreprovisão a qualquer custo.
Proteção de informações pessoais em ambientes compartilhados.
A implementação de LLMs frequentemente requer lidar com grandes volumes de dados e modelos de conhecimento treinados que podem conter informações confidenciais ou patenteadas. Um possível problema ao utilizar nuvens públicas é a presença de outros usuários de instâncias de processamento no mesmo hardware físico, o que aumenta o risco de acesso não autorizado aos dados armazenados e processados.
Ao consultar um fornecedor de serviços de nuvem pública sobre o assunto, é comum que eles prontamente exibam suas apresentações em PowerPoint atualizadas para enfatizar a impossibilidade dessa situação. Embora isso geralmente seja verdade, não reflete totalmente a realidade. Todos os sistemas de multi-inquilinos apresentam esse risco, o qual é necessário mitigar. Verifiquei que quanto menor o provedor de nuvem, especialmente aqueles que operam em um único país, maior a probabilidade de surgirem problemas, especialmente em relação ao armazenamento de dados e aos LLMs.
A chave está em escolher fornecedores de serviços em nuvem que atendam a elevados padrões de segurança, comprovando medidas como criptografia, gerenciamento de identidade e acesso (IAM) e políticas de isolamento. Além disso, é altamente recomendável implementar uma estratégia de segurança e uma pilha tecnológica adequada para garantir baixo risco ao utilizar ambientes de nuvem com vários locatários (multitenente).
Operação do processo de implementação de um modelo estadual.
Os LLMs são em sua maioria stateful, ou seja, eles retêm dados de uma interação para a próxima. Essa característica antiga agora traz uma vantagem adicional: a capacidade de aprimorar a eficácia em situações de aprendizado contínuo. No entanto, lidar com o estado desses modelos em ambientes de nuvem, onde as instâncias podem ser temporárias ou persistentes por design, apresenta desafios.
Ferramentas de orquestração como o Kubernetes, que são capazes de lidar com implantações de estado, são valiosas. Elas podem utilizar recursos de armazenamento persistente para os LLMs e podem ser ajustadas para garantir e gerenciar o estado deles ao longo do tempo. Essa funcionalidade é essencial para sustentar a continuidade e a eficiência dos LLMs.
Com o aumento da inteligência artificial generativa, torna-se essencial antecipar a implementação de LLMs em plataformas de nuvem. Muitas empresas evitam o uso da nuvem, mas é importante considerar essa opção. Existe o receio de que, ao embarcar nessa corrida frenética, possamos negligenciar questões simples e cometer erros graves e custosos que poderiam ter sido evitados.