InícioBlogCrie instruções eficazes para inteligência artificial com o Microsoft Prompt Engine.

Crie instruções eficazes para inteligência artificial com o Microsoft Prompt Engine.

Date:

A ferramenta de código aberto da Microsoft auxilia na criação de códigos para lidar com inteligência artificial generativa, assegurando a obtenção de informações precisas e a manutenção do foco no assunto.

chatbot_ChatGPT_AI_artificial intelligence_bot_assistant_shutterstock 1901618698
Imagem: Chakkree_Chantakad/Burst

O recente lançamento do Bing aprimorado pela inteligência artificial da Microsoft destacou a dedicação da empresa em aprimorar os modelos de linguagem da OpenAI e a inteligência artificial generativa, transformando-os em um serviço direcionado aos consumidores. As primeiras interações com o serviço revelaram prontamente os detalhes dos prompts predefinidos que a Microsoft estava empregando para manter o chatbot Bing concentrado em oferecer resultados de pesquisa.

Grandes modelos de linguagem, como a série GPT da OpenAI, são mais eficazes quando vistos como instrumentos de sugestão e reação. Ao fornecer um estímulo ao modelo, ele responde com uma sequência de palavras que se adequam tanto ao conteúdo quanto ao estilo do estímulo e, em algumas situações, até mesmo ao tom humorístico. Esses modelos são treinados com grandes volumes de dados que são posteriormente ajustados para uma tarefa específica. Ao apresentar um estímulo bem formulado e controlar o tamanho da resposta, é possível minimizar a possibilidade de o modelo gerar saídas gramaticalmente corretas, porém fundamentalmente erradas.

Abertura de engenharia ágil

Os prompts do Bing da Microsoft revelaram que estavam sendo pressionados a criar uma personalidade útil para gerar conteúdo de resultados de pesquisa, utilizando o modelo Prometheus da Microsoft como um conjunto de loops de feedback adicionais para manter os resultados relevantes para o tópico e o contexto. Uma observação intrigante é que a Microsoft parece ter apostado em uma nova abordagem de engenharia de software, conhecida como engenharia rápida.

É importante considerar esta abordagem ao trabalhar com as APIs do Azure OpenAI da Microsoft. As inteligências artificiais gerativas, como os grandes modelos de idiomas, desempenharão um papel fundamental em sua aplicação e negócio, exigindo cuidadosa manutenção e controle. Isso implica em agilidade na engenharia: criando um prompt de configuração eficaz, ajustando o modelo e garantindo que as interações do usuário não causem resultados indesejados.

VEJA TAMBEM:  Analisando o verdadeiro custo do tempo de inatividade: por que a hospedagem é essencial

Tanto a Microsoft quanto o OpenAI oferecem ambientes de sandbox para criar e experimentar solicitações de base. Você pode inserir um texto rapidamente, incluir conteúdo de exemplo e visualizar a saída padrão. Apesar de haver certa imprevisibilidade no modelo, as saídas serão semelhantes para qualquer entrada, permitindo testar as funcionalidades e desenvolver a “personalidade” do seu modelo.

Essa abordagem é essencial não só para modelos que utilizam chat e texto, mas também para ferramentas de desenvolvimento baseadas em IA, como o Codex, e geradores de imagem, como o DALL-E, que são empregados em criações artísticas ou em processos de baixo código. Incluir organização e direcionamento nos estímulos auxilia na eficiência da inteligência artificial gerativa, previne erros e minimiza a possibilidade de uso indevido.

Utilizando solicitações com a plataforma Azure OpenAI.

É essencial ter em mente que existem outras maneiras de gerenciar o contexto e a coerência em modelos de linguagem extensos, além do uso do prompt. Uma alternativa é regular o tamanho da resposta, restringindo o número de tokens utilizados em cada interação. Isso garante respostas sucintas e menos propensas a desviar do assunto.

Trabalhar com as APIs do Azure OpenAI facilita a integração de grandes modelos de idiomas em seu código de forma simples. No entanto, é importante ter um método para gerenciar as strings fornecidas para as APIs. É necessário um código extenso para aplicar rapidamente disciplinas de engenharia à sua aplicação, implementando os padrões e práticas adequados, além das opções básicas de perguntas e respostas.

Administrar comandos utilizando o mecanismo de Prompt.

A Microsoft desenvolveu o Prompt Engine, um projeto de código aberto, para lidar com solicitações e fornecer as saídas desejadas de um modelo de linguagem extenso. Este projeto utiliza JavaScript, C# e Python, que são armazenados em repositórios separados no GitHub. Os três apresentam a mesma função principal: gerenciar o contexto de interações com um modelo.

Se estiver utilizando JavaScript, existem três classes de modelo suportadas: um modelo genérico com base em prompt, um modelo de código e um sistema de bate-papo. Essas opções são úteis para administrar os diferentes elementos de um prompt bem elaborado, permitindo personalizar entradas e interações do usuário, incluindo respostas do modelo. A capacidade de gerenciar o contexto entre as interações é crucial para preservar o estado em conversas e entre linhas de código em um aplicativo.

VEJA TAMBEM:  Agentes genéticos de inteligência artificial transformarão a estrutura da inteligência artificial.

Você tem acesso às mesmas funcionalidades presentes na versão Python, o que possibilita a utilização rápida dos mesmos procedimentos do código JavaScript. Embora a versão C# ofereça suporte apenas a modelos genéricos e análise de texto, é possível reutilizá-los facilmente em diferentes tipos de aplicativos. A escolha do JavaScript é indicada para aplicações web e extensões do Visual Studio Code, enquanto o Python é a opção mais adequada para profissionais que lidam com diversas ferramentas de aprendizado de máquina.

A ideia é utilizar o modelo de linguagem avançado como um parceiro do usuário, possibilitando a criação de seus próprios ciclos de feedback em torno da inteligência artificial, de forma semelhante ao Prometheus da Microsoft. Ao estabelecer um padrão para interagir com o modelo, é possível ajustar seus próprios estímulos de base, acompanhando as respostas e aprimorando as entradas conforme necessário.

Controlando as interações GPT por meio do Prompt Engine.

O Prompt Engine pode ser instalado como uma biblioteca de repositórios conhecidos, como o npm e o pip, e possui código de exemplo disponível em seus repositórios do GitHub. Iniciar o uso é simples ao importar os módulos adequados. Para começar, forneça uma descrição do seu prompt, seguida de alguns exemplos de interações. Por exemplo, ao traduzir linguagem natural em código, cada interação consiste em uma consulta de exemplo seguida pelo código de saída esperado na linguagem que está sendo segmentada.

É necessário ter diversas interações para criar o comando mais eficiente. A linguagem principal é Python, porém é possível personalizar a seleção de idiomas por meio de um comando CodeEngineConfig.

Ao usar um idioma de destino e exemplares, é possível criar uma solicitação de usuário para ser empregada na API do Azure OpenAI. Adicionando a resposta em uma nova Interação, é possível manter o contexto para futuras chamadas, porém ela será limitada à sessão do usuário atual e não poderá ser utilizada por outros usuários ou em chamadas subsequentes. É fundamental monitorar o número total de tokens utilizados para que o prompt não ultrapasse os limites do modelo. O Prompt Engine oferece um recurso para garantir que o comprimento do prompt não exceda o número máximo de tokens do modelo, eliminando diálogos antigos conforme necessário. É importante ressaltar aos usuários que há restrições quanto ao comprimento das conversas devido a essa abordagem.

VEJA TAMBEM:  Administração de Servidor Virtual Privado (VPS): Impulsionando seu Fórum

Se você está ajustando um sistema de bate-papo, é possível personalizar os nomes de usuário e do bot com uma descrição que destaque as funções do bot e do usuário, além de especificar padrões de comportamento que podem ser utilizados nas interações. As respostas obtidas podem ser enviadas de volta ao mecanismo de prompts para ajudar na construção de contexto para interações futuras.

Você pode utilizar Interações em cache para incluir um ciclo de feedback em seu aplicativo, como por exemplo, a busca por termos e frases indesejáveis ou o uso da classificação da resposta do usuário para determinar quais Interações devem permanecer entre as mensagens. Ao registrar tanto as interações bem-sucedidas quanto as mal-sucedidas, você poderá aprimorar a eficácia de uma mensagem padrão, adicionando novos exemplos conforme necessário. A Microsoft recomenda a criação de um banco de exemplos dinâmico que possa ser comparado com as consultas, utilizando um conjunto de exemplos semelhantes para gerar automaticamente uma mensagem que corresponda à consulta do usuário e produza uma saída mais precisa.

Prompt Engine é uma ferramenta fácil de usar que auxilia na criação de prompts de forma adequada. Essa ferramenta é útil para lidar com as restrições de modelos de linguagem complexos, como GPT-3 e Codex, além de possibilitar a construção de feedback loops essenciais para evitar comportamentos indesejados do modelo.

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui