InícioServidoresSegurançaA exposição da lavagem e a falsa sensação de abertura da Inteligência...

A exposição da lavagem e a falsa sensação de abertura da Inteligência Artificial

Date:

Os prestadores de serviços de inteligência artificial em nuvem afirmam que suas tecnologias geradoras de IA e modelos de linguagem avançados estão disponíveis para uso, e as empresas estão adotando essas soluções.

Magician with two flying white Doves on a black background shrouded in mysterious blue smoke
Imagem: Chakkree_Chantakad/KaboomPics

Paráfrase do texto: Uma nova tendência surgiu na corrida pelo desenvolvimento da inteligência artificial, onde as principais empresas do setor, como OpenAI, Google e Microsoft, estão promovendo fortemente seus modelos de IA como sendo “abertos”. Embora usem termos como “Open AI” para se associarem à ideia de transparência e colaboração do software open source, uma análise mais detalhada revela que essa abertura é principalmente uma estratégia de marketing denominada “lavagem aberta”.

A prática de “lavagem aberta” na inteligência artificial se refere a empresas que afirmam ser abertas, mas mantêm componentes fundamentais como propriedade exclusiva. Essa abordagem não é nova e já vimos situações semelhantes na nuvem e na IA. As empresas de marketing buscam se posicionar como “abertas” para se associarem a um conceito positivo, mas é importante não exagerar, especialmente quando se trata de empresas de tecnologia de grande porte.

Embora as empresas declarem que sua inteligência artificial generativa e grandes modelos de linguagem (LLMs) estão disponíveis para todos, na realidade esses sistemas continuam restritos dentro de estruturas controladas pelas mesmas corporações. Em vez de fomentar a verdadeira abertura, essas estratégias muitas vezes reforçam a concentração de poder em poucas mãos selecionadas. O que aparenta ser democrático e colaborativo à primeira vista, acaba sendo, na prática, uma tática de marketing sofisticada para manter o controle.

Isso está diretamente ligado à computação em nuvem, uma vez que muitos desses modelos abertos estão disponíveis em provedores de nuvem e são desenvolvidos e comercializados por eles. Atualmente, praticamente todas as empresas têm soluções de gerenciamento de licenças de software; os provedores de nuvem também oferecem suas próprias versões.

VEJA TAMBEM:  Quais são os próximos passos para o Azure API Management?

Qual é o significado de lavagem aberta na inteligência artificial?

As empresas de inteligência artificial frequentemente destacam a acessibilidade de código aberto de seus modelos. No entanto, ao investigar mais a fundo, torna-se evidente que os aspectos críticos desses sistemas – como conjuntos de dados, infraestrutura, métodos de treinamento e até mesmo a aplicação prática de LLMs – permanecem protegidos. Esses componentes não são secundários, mas sim os principais impulsionadores da funcionalidade, inovação e escalabilidade dos sistemas de inteligência artificial generativa. As empresas mantêm o controle da propriedade intelectual ao apresentar certas partes de seus processos como abertas, enquanto retêm grande parte do controle do ecossistema e extraem valor dos usuários que buscam personalizar ou ampliar suas ferramentas.

Um caso emblemático é a disponibilização de LLMs “sob licenças permissivas”, as quais garantem que qualquer pessoa possa utilizá-los ou modificá-los. Isso pode aparentemente democratizar a inteligência artificial, principalmente para desenvolvedores ou startups menos experientes. No entanto, frequentemente esses modelos limitam o acesso a recursos essenciais, como conjuntos de dados completos para treinamento ou a capacidade computacional necessária para recriar os modelos do início.

Interpretações equivocadas

No centro da lavagem de abertura encontra-se uma distorção dos princípios de abertura, transparência e reutilização. A transparência na inteligência artificial envolveria a divulgação pública dos processos de desenvolvimento, treinamento, aprimoramento e implementação dos modelos. Isso significa fornecer acesso completo aos conjuntos de dados, pesos, arquiteturas e processos de tomada de decisão usados na criação dos modelos. Muitas empresas de IA não atendem a esse padrão de transparência. Ao liberar seletivamente partes de seus modelos – frequentemente sem os detalhes essenciais – elas criam uma falsa impressão de abertura.

VEJA TAMBEM:  Google desativa o Optimize.

A prática da reutilização, que é outro aspecto importante da abertura, apresenta semelhanças significativas. As empresas disponibilizam seus modelos por meio de APIs ou versões para download simplificadas, porém limitam a personalização extensa ao restringir o acesso a ecossistemas proprietários. Essa abordagem parcial proporciona um nível controlado de reutilização que busca maximizar os benefícios da computação em nuvem, ao mesmo tempo em que reduz o risco de competição.

Por exemplo, os modelos GPT da OpenAI são disponíveis, porém suas implementações estão sempre associadas a clientes web específicos, bibliotecas de manutenção e aplicações de propriedade da empresa. Os desenvolvedores corporativos não têm a liberdade de ajustar, adaptar ou redistribuir esses modelos sem uma série de acordos de licenciamento. Um amigo desenvolvedor expressou isso de maneira mais clara ao dizer: “Esses recursos são tão restritos quanto os de um cofre bancário”.

Foco da inteligência artificial em potência.

O progresso da inteligência artificial generativa requer recursos significativos, como grandes conjuntos de dados, capacidade de processamento e estruturas especializadas. Treinar modelos de linguagem de última geração exige uma grande quantidade de recursos computacionais e hardware. A maioria das empresas não está conseguindo desenvolver esses modelos conforme planejado devido aos custos elevados envolvidos. Recomendo aos meus clientes que se concentrem em aplicações mais práticas de IA, como modelos de linguagem menores e agentes de inteligência artificial. Os LLMs estão se tornando recursos remotos e é provável que permaneçam dessa forma.

Mesmo que modelos permissivos, como o Llama 3 da Meta, incluam cláusulas restritivas que limitam suas possibilidades de implementação ou adaptação, essa divulgação seletiva assegura que as empresas menores continuem dependentes dos sistemas dessas grandes empresas, consolidando a desigualdade de poder.

VEJA TAMBEM:  Google amplia funcionalidades de Inteligência Artificial Duet em seus serviços de computação em nuvem.

Além disso, muitas vezes não se dá destaque ao intenso processo de trabalho de seleção, classificação e moderação de conjuntos de dados. Embora se fale em democratização, essas empresas utilizam mão de obra global e mantêm conjuntos de dados importantes separados. Isso dificulta significativamente a reprodução dos resultados.

Qual é a implicação disso para as empresas?

Os líderes empresariais devem questionar de forma incisiva quando alguém afirma que seu modelo de IA é “aberto”. É importante esclarecer quais modificações são possíveis, onde está a documentação completa e se há limitações quanto ao uso do modelo em diferentes contextos.

Quando colocados em uma situação difícil, os provedores deixam claro que são uma empresa, não uma organização beneficente. Deve-se estar preparado para pagar pelo serviço prestado. Embora isso seja compreensível, seria desejável que fossem mais acessíveis aos clientes.

Razão pela qual este artigo foi escrito: vários amigos e clientes empresariais estão implementando seus projetos de inteligência artificial na nuvem e estão preocupados. Grandes provedores de nuvem devem prestar atenção, pois a tendência pode mudar a favor de empresas com abordagens mais simples para comercializar seus LLMs e outras tecnologias de IA.

Recomendação: Evite se deixar levar pelo entusiasmo exagerado em relação à lavagem aberta. Foque nas capacidades que essas ferramentas de IA podem oferecer ao seu negócio considerando suas limitações. E tenha em mente que se algo parece bom demais para ser verdade, provavelmente não é.

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui