InícioNuvemComputaçãoOtimize a utilização das GPUs em aplicações de machine learning.

Otimize a utilização das GPUs em aplicações de machine learning.

Date:

Para criar aplicações de inteligência artificial e machine learning, é necessário ter acesso a um grande número de GPUs. A decisão de onde executá-las, se localmente ou na nuvem, é crucial.

technician evaluating cloud performance
Imagem: TomasHa73/DepositPhotos

Antigamente, as GPUs eram usadas principalmente para jogos e streaming de vídeo, mas agora também são amplamente utilizadas em aprendizado de máquina. Sua capacidade de realizar várias computações ao mesmo tempo as torna ideais para acelerar o processamento de trabalho em ML e alimentar aplicativos de inteligência artificial.

A arquitetura de fluxo de dados múltiplos de instrução única (SIMD) em uma GPU permite que os cientistas de dados dividam tarefas complexas em unidades menores. Por essa razão, empresas que estão focadas em iniciativas de inteligência artificial e aprendizado de máquina costumam optar por GPUs em vez de CPUs para processar grandes conjuntos de dados de forma rápida em cargas de trabalho intensivas em hardware. Isso é especialmente relevante para modelos de linguagem grande (LLMs) e aplicações de inteligência artificial generativa baseadas em LLMs.

“Não. Continue lendo para descobrir o impacto que o ChatGPT e os LLMs podem ter no seu negócio.”

No entanto, processadores de menor custo são mais do que capazes de realizar certas tarefas de aprendizado de máquina que não requerem processamento paralelo. Essas tarefas incluem algoritmos que envolvem computação estatística, como processamento de linguagem natural (NLP), e alguns algoritmos de aprendizado profundo. Existem também exemplos de inteligência artificial que são adequados para processadores, como telemetria e roteamento de rede, reconhecimento de objetos em câmeras de circuito fechado de TV, detecção de falhas na fabricação e identificação de objetos em exames de tomografia computadorizada e ressonância magnética.

Possibilitar a criação de aplicativos que utilizam a GPU como base para seu desenvolvimento.

Enquanto as empresas continuam a se beneficiar dos casos de uso da CPU mencionados anteriormente, a crescente demanda por AI generativa está impulsionando a necessidade de mais GPUs. Isso tem sido vantajoso para os fabricantes de GPU em geral, com destaque para a Nvidia, líder incontestável nessa categoria. No entanto, à medida que a demanda por GPUs aumenta globalmente, mais empresas estão percebendo que configurar pilhas de GPU e desenvolver em GPUs não é uma tarefa simples.

VEJA TAMBEM:  O início da automatização inteligente da organização de dados.

Para enfrentar esses desafios, a Nvidia e outras empresas implementaram diferentes conjuntos de ferramentas e plataformas para facilitar aos desenvolvedores a gestão de cargas de trabalho de aprendizado de máquina e a escrita de código de alto desempenho. Estas incluem frameworks de aprendizado profundo otimizados para GPUs, como PyTorch e TensorFlow, além da estrutura CUDA da Nvidia. Não é exagero dizer que o framework CUDA tem sido fundamental para acelerar as tarefas de GPU para pesquisadores e cientistas de dados.

Comparação entre o uso de GPUs localmente e o uso de GPUs na nuvem.

Uma empresa que decide realizar iniciativas de IA e ML deve considerar se é mais apropriado implantar as GPUs localmente ou na nuvem, já que essas são preferíveis às CPUs para executar muitas tarefas relacionadas ao aprendizado de máquina.

Numa implementação de GPU local, uma empresa precisa adquirir e instalar suas próprias GPUs. Isso implica em um alto investimento financeiro para cobrir tanto o custo das GPUs e a construção de um data center dedicado, além dos gastos operacionais para mantê-los. Essas empresas possuem uma vantagem em termos de propriedade: Seus desenvolvedores podem testar e iterar sem limites, sem ter que arcar com custos adicionais, algo que não aconteceria numa implementação baseada em nuvem.

As GPUs na nuvem permitem que as organizações ajustem facilmente o uso das GPUs de acordo com suas necessidades, pagando apenas pelo que usarem. Os provedores de GPUs na nuvem oferecem suporte dedicado para lidar com a infraestrutura, permitindo que os usuários comecem rapidamente, economizando tempo e reduzindo responsabilidades. Isso garante aos desenvolvedores acesso às tecnologias mais recentes e às GPUs adequadas para seus projetos de aprendizado de máquina.

VEJA TAMBEM:  Yellowbrick se destaca em termos de desempenho devido à sua ampla integração de aceleradores.

As empresas podem obter benefícios de duas formas diferentes ao adotar uma implementação de GPU híbrida. Com essa estratégia, os desenvolvedores podem aproveitar as GPUs locais para testar e treinar modelos, enquanto utilizam as GPUs baseadas em nuvem para expandir serviços e garantir maior resistência. Com essa abordagem mista, as empresas podem ajustar seus gastos entre despesas de capital e operacionais, garantindo que os recursos das GPUs estejam próximos das operações do data center corporativo.

Melhoramento para tarefas específicas de aprendizado de máquina.

Trabalhar com unidades de processamento gráfico (GPUs) apresenta desafios tanto em termos de configuração quanto no desenvolvimento de aplicativos. Empresas que escolhem realizar implantações internas frequentemente enfrentam quedas na produtividade, uma vez que seus desenvolvedores precisam realizar tarefas repetitivas para configurar um ambiente adequado para suas operações.

Para que a GPU esteja pronta para desempenhar qualquer função, é necessário executar as seguintes etapas:

  • Instale e ajuste os drivers CUDA e o conjunto de ferramentas CUDA para se comunicar com a GPU e realizar outras tarefas de processamento na GPU.
  • Instale as bibliotecas CUDA essenciais para otimizar o desempenho da unidade de processamento gráfico (GPU) e aproveitar ao máximo seus recursos computacionais.
  • Coloque em prática frameworks de aprendizagem profunda, como TensorFlow e PyTorch, para realizar tarefas de machine learning, como treinamento, inferência e refinamento.
  • Coloque em prática a instalação de ferramentas como JupyterLab para testar e rodar códigos, e Docker para executar aplicativos em contêineres GPU.

Este extenso procedimento de preparação de GPUs e ajuste dos ambientes desejados costuma sobrecarregar os desenvolvedores e também pode levar a erros devido a versões desiguais ou desatualizadas de ferramentas essenciais.

Quando as empresas oferecem aos seus desenvolvedores uma infraestrutura pronta para uso e uma pilha de GPU em nuvem pré-configurada, os desenvolvedores podem poupar tempo em tarefas administrativas e procedimentos complexos, como instalar ferramentas. Isso possibilita que os desenvolvedores foquem em atividades de maior valor e aumentem sua eficiência, já que podem iniciar imediatamente o desenvolvimento e testes de soluções.

VEJA TAMBEM:  O Microsoft Fabric é uma extensa plataforma tecnológica voltada para o processamento de grandes volumes de dados.

Também disponível no InfoWorld: 14 algoritmos de inteligência artificial populares e suas aplicações.

Uma estratégia de computação em nuvem com GPU oferece às empresas a oportunidade de escolher a GPU mais adequada para cada situação. Isso possibilita a adaptação do uso da GPU de acordo com as necessidades do negócio, sem ficar preso a uma determinada compra de hardware, o que aumenta a produtividade e eficiência.

Além disso, devido à rápida evolução das GPUs, a colaboração com um provedor de GPU em nuvem possibilita o acesso a capacidade de GPU em qualquer lugar em que a organização necessitar. O provedor de nuvem ficará responsável por manter e atualizar as GPUs para garantir que os clientes sempre tenham acesso ao máximo desempenho. Optar por um modelo de implantação em nuvem ou híbrido permite que as equipes de ciência de dados foquem em atividades que geram receita, ao invés de lidar com a provisionamento e manutenção de GPUs e infraestruturas relacionadas, evitando também o investimento em hardware que poderia se tornar obsoleto rapidamente.

Kevin Cochrane ocupa o cargo de diretor de marketing na Vultr.

Lo siento, pero necesitas proporcionar un texto específico para que pueda parafrasearlo. ¿Puedes darme algo más concreto para trabajar?

A plataforma AI genética A Insights fornece um espaço para líderes de tecnologia, incluindo fornecedores e outros colaboradores externos, discutirem os desafios e oportunidades da inteligência artificial generativa. A variedade de temas abordados vai desde a análise detalhada de tecnologia até estudos de caso e opiniões especializadas, todos selecionados com base no que consideramos mais relevante para o público tecnicamente avançado da InfoWorld. A InfoWorld não aceita garantias de marketing para publicação e reserva o direito de editar todos os conteúdos submetidos. Para mais informações, entre em contato com doug_dineley@foundryco.com.

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui