Skip to main content

prompt.png Ferramenta Prompt

Requisitos da função de usuário

Função de usuário*

Acesso à ferramenta/ao recurso

Usuário completo

Usuário básico

X

*Aplica-se a clientes do Alteryx OneProfessional e Enterprise Edition nas versões 2025.1 e posteriores do Designer.

Use a ferramenta Prompt para enviar prompts para um modelo de linguagem avançado (LLM) e, em seguida, receba a resposta do modelo como uma saída. Você também pode configurar os parâmetros do LLM para ajustar a saída do modelo.

Componentes da ferramenta

A ferramenta Prompt tem três âncoras (duas de entrada e uma de saída):

  • Âncora de entrada M: (opcional) use a âncora de entrada M para conectar as configurações de conexão da llm_override_icon.png Ferramenta Substituição por LLM. Como alternativa, configure uma conexão nessa ferramenta.

  • Âncora de entrada D: (opcional) use a âncora de entrada D para conectar os dados que você quer adicionar ao prompt. A ferramenta Prompt aceita tipos de dados padrão (por exemplo, cadeia de caracteres, numérico e data/hora), além de dados de Blob da Blob Input Tool Icon Ferramenta Entrada de Blob.

  • Âncora de saída: use a âncora de saída para passar a resposta do modelo para etapas posteriores.

Configurar a ferramenta

Conecte-se ao serviço de modelo de IA no Alteryx One

Se você não estiver usando a ferramenta Substituição por LLM para fornecer as configurações de conexão do modelo à ferramenta Prompt, será necessário configurar uma conexão com o serviço de modelo de IA no Alteryx One.

Para a configuração inicial da ferramenta Prompt, crie um link Alteryx para seu espaço de trabalho do Alteryx One. Se você entrou no Designer por meio do Alteryx One, deve ver uma conexão já configurada para esse espaço de trabalho.

Conexão com LLMs

Importante

Antes de você poder selecionar um LLM, um deve criar uma conexão com LLMs no Alteryx One.

  1. Use o menu suspenso Provedor de LLM para selecionar o provedor que você deseja usar no seu fluxo de trabalho. Se você conectou a ferramenta Substituição por LLM, essa opção estará desabilitada.

  2. Use o menu suspenso Selecionar modelo para selecionar um modelo disponível do seu provedor de LLM. Se você conectou a ferramenta Substituição por LLM e selecionou um modelo específico, essa opção estará desabilitada.

Configurações de prompt

Use a seção "Configurações de prompt" para compor seu prompt e configurar as colunas de dados associadas ao prompt e à resposta.

  1. Insira seu prompt no campo Modelo do prompt. Para estimar a contagem de tokens do seu prompt, consulte Contagem de tokens na parte inferior do campo Modelo do prompt. A contagem de tokens não considera tokens adicionais que podem vir de colunas de dados inseridas.

  2. Inclua dados em etapas anteriores no seu prompt para análises mais avançadas. A ferramenta Prompt cria um novo prompt para cada linha dos seus dados de entrada. A ferramenta então envia uma solicitação de LLM para cada uma dessas linhas.

    1. Para inserir uma coluna de dados de entrada, você pode…

      1. Inserir um colchete de abertura ([) no campo de texto para abrir o menu de seleção de colunas. Você também pode digitar o nome da coluna entre colchetes ([]).

      2. Selecione uma coluna no menu suspenso Inserir campo.

    2. Para anexar dados não estruturados, como imagem ou arquivo PDF, selecione a coluna que contém esses dados no menu suspenso Anexar colunas não-textuais. Use uma Blob Input Tool Icon Ferramenta Entrada de Blob para trazer suas imagens e PDFs para o fluxo de trabalho.

      Nota

      O suporte para dados não estruturados, como imagens e PDFs, depende do seu provedor de LLM e do modelo selecionado. Consulte a documentação do provedor de LLM para obter detalhes sobre os tipos de dados não estruturados ou multimodais compatíveis.

  3. Insira o Nome da coluna de resposta. Essa coluna contém a resposta do LLM ao seu prompt.

  4. Execute o fluxo de trabalho. 

Prompt Builder

Use o Prompt Builder para testar rapidamente diferentes prompts e configurações de modelo. Em seguida, você pode comparar os resultados com o histórico de prompts. Para experimentar diferentes modelos e configurações de modelo, execute o fluxo de trabalho com seu prompt inicial e depois selecione Refinar e testar no construtor de prompt para abrir a janela do construtor de prompt.

Importante

O Criador de prompts requer dados conectados à âncora de entrada D.

Guia Espaço de trabalho do prompt

Use a guia Espaço de trabalho do prompt para inserir seus prompts e atualizar configurações do modelo:

  1. Use o menu suspenso Selecionar modelo para selecionar um modelo disponível do seu provedor de LLM.

  2. Insira o Número de registros a serem testados. Se você tiver um conjunto de dados grande, use essa configuração para limitar o número de registros testados com o prompt.

  3. Configure os parâmetros do modelo para Temperatura, Máximo de tokens de saída e TopP. Consulte a seção Definições avançadas de configuração do modelo para obter descrições dos parâmetros.

  4. Insira ou atualize seu prompt no campo de texto Modelo do prompt.

    Dica

    Para obter ajuda para criar um prompt pronto para uso, selecione Gerar um prompt para mim e descreva sua tarefa. Para usar esse recurso, sua conta do Alteryx One deve ter acesso ao Alteryx Copilot.

  5. Selecione Testar e executar para visualizar a resposta da amostra para cada linha.

  6. Se você gostar das respostas do novo prompt, clique em Salvar prompt na tela para atualizar a ferramenta Prompt com a nova configuração do prompt e do modelo.

Guia Histórico

Use a guia Histórico para visualizar seus prompts anteriores, parâmetros do modelo e uma resposta da amostra.

Para cada prompt anterior, você pode…

  • Adicionar à tela: atualiza a ferramenta Prompt com o prompt selecionado e os parâmetros do modelo associados.

  • Editar prompt: retorna à guia "Configuração" com o prompt selecionado e os parâmetros do modelo associados. Selecione o menu de três pontos ao lado de Adicionar à tela para ver essa opção.

  • Baixar resultados: salva um arquivo CSV contendo o prompt e os parâmetros do modelo para a linha atual na guia Histórico.

Atenção

Certifique-se de salvar o prompt antes de sair da janela "Prompt Builder". Você perderá seu histórico de prompts quando selecionar Fechar

Erro ao tratar

Quando ocorrer um erro, escolha sua opção de tratamento de erros no menu suspenso Com erro:

  • Erro - Parar processamento de registros: gera um erro na janela de resultados e interrompe o processamento dos registros.

  • Aviso - Continuar processamento de registros: gera um aviso na janela de resultados, mas continua o processamento dos registros.

  • Ignorar - Continuar processamento de registros: ignora as colunas que diferem e continua o processamento dos registros.

Definições avançadas de configuração do modelo

Use a seção "Configuração avançada do modelo" para configurar os parâmetros do modelo:

  • Temperatura: controla a aleatoriedade da saída do modelo como um número entre 0 e 2. O valor padrão é 1.

    • Valores mais baixos fornecem respostas mais confiáveis e consistentes.

    • Valores mais altos fornecem respostas mais criativas e aleatórias, mas que também podem se tornar ilógicas.

  • Máximo de tokens de saída: o número máximo de tokens que o LLM pode incluir em uma resposta. Cada token é cerca de 3/4 de uma palavra. Tokens são unidades básicas de entrada e saída em LLMs. São partes de texto que podem ser palavras, conjuntos de caracteres ou combinações de palavras e pontuação. Consulte seu provedor de LLM e um modelo específico para obter o máximo de tokens de saída disponíveis.

  • TopP: controla quais tokens de saída o modelo amostra e varia de 0 a 1. O modelo seleciona entre os tokens mais ou menos prováveis até que a soma de suas probabilidades seja igual ao valor TopP. Por exemplo, se o valor TopP for 0.8 e você tiver 3 tokens com probabilidades de 0.5, 0.3 e 0.2, o modelo só selecionará entre os tokens com probabilidade de 0.5 e 0.3 (soma de 0.8). Valores mais baixos resultam em respostas mais consistentes, enquanto valores mais altos resultam em respostas mais aleatórias.

Saída

A ferramenta gera duas colunas de dados de cadeia de caracteres (string).

  • Coluna "Prompt de LLM": contém seu prompt.

  • Coluna "Resposta de LLM": contém a resposta do seu provedor de LLM e do modelo.