Guias
...
Workflow
Descrição de Blocos
LLM
7min
definição invoca grandes modelos de linguagem para responder perguntas ou processar linguagem natural cenários o llm é o nó central do chatflow/workflow, utilizando as capacidades de conversação/geração/classificação/processamento dos grandes modelos de linguagem para lidar com uma ampla gama de tarefas com base nos prompts fornecidos e pode ser usado em diferentes estágios dos workflows reconhecimento de intenção em cenários de atendimento ao cliente, identificando e classificando consultas de usuários para orientar processos subsequentes geração de texto em cenários de criação de conteúdo, gerando textos relevantes com base em temas e palavras chave classificação de conteúdo em cenários de processamento em lote de e mails, categorizando automaticamente os e mails, como consultas/reclamações/spam conversão de texto em cenários de tradução, traduzindo o texto fornecido pelo usuário para um idioma especificado geração de código em cenários de assistência de programação, gerando código de negócios específico ou escrevendo casos de teste com base nos requisitos do usuário rag (geração de respostas baseadas em conhecimento) em cenários de perguntas e respostas com base em uma base de conhecimento, reorganizando o conhecimento relevante recuperado para responder às perguntas dos usuários compreensão de imagens usando modelos multimodais com capacidades visuais para entender e responder a perguntas sobre as informações contidas nas imagens selecionando o modelo apropriado e escrevendo prompts, você pode construir soluções poderosas e confiáveis no chatflow/workflow como configurar configuração do nó llm seleção de modelo passos de configuração selecione um modelo o paragraph suporta os principais modelos globais, incluindo a série gpt da openai, a série claude da anthropic e a série gemini da google a escolha do modelo depende de sua capacidade de inferência, custo, velocidade de resposta, janela de contexto, etc você precisa selecionar um modelo adequado com base nos requisitos do cenário e no tipo de tarefa configurar parâmetros do modelo os parâmetros do modelo controlam os resultados da geração, como temperatura, topp, número máximo de tokens, formato de resposta, etc para facilitar a seleção, o sistema oferece três conjuntos de parâmetros predefinidos criativo, balanceado e preciso escrever prompts o nó llm oferece uma página de composição de prompts fácil de usar selecionar um modelo de chat ou de conclusão exibirá diferentes estruturas de composição de prompts configurações avançadas você pode habilitar memória, configurar janelas de memória e usar a linguagem de template jinja 2 para prompts mais complexos se você estiver usando o paragraph pela primeira vez, precisa concluir a configuração do modelo em configurações do sistema — provedores de modelo antes de selecionar um modelo no nó llm escrevendo prompts no nó llm, você pode personalizar os prompts de entrada do modelo se selecionar um modelo de chat, você pode personalizar as seções system/usuário/assistant gerador de prompts se você estiver com dificuldades para criar prompts eficazes (system), pode usar o gerador de prompts para criar rapidamente prompts adequados para seus cenários de negócios específicos, aproveitando as capacidades de ia no editor de prompts, você pode chamar o menu de inserção de variáveis digitando "/" ou "{" para inserir blocos de variáveis especiais ou variáveis de nós anteriores no prompt como conteúdo de contexto explicação de variáveis especiais variáveis de contexto variáveis de contexto são um tipo especial de variável definida no nó llm, usada para inserir conteúdo de texto recuperado externamente no prompt histórico de conversação para alcançar a memória de conversação em modelos de conclusão de texto (por exemplo, gpt 3 5 turbo instruct), o paragraph projetou a variável de histórico de conversação no prompt expert mode original (descontinuado) esta variável foi transferida para o nó llm no chatflow, sendo usada para inserir o histórico de chat entre a ia e o usuário no prompt, ajudando o llm a entender o contexto da conversa a variável de histórico de conversação não é amplamente utilizada e só pode ser inserida ao selecionar modelos de conclusão de texto no chatflow recursos avançados memória quando ativada, cada entrada para o classificador de intenção incluirá o histórico de conversas da conversa para ajudar o llm a entender o contexto e melhorar a compreensão de kkkkkk em diálogos interativos janela de memória quando a janela de memória está fechada, o sistema filtra dinamicamente a quantidade de histórico de conversas passado com base na janela de contexto do modelo; quando aberta, os usuários podem controlar precisamente a quantidade de histórico de conversas passada (em termos de números) configurações de nome de papel da conversação devido às diferenças nas fases de treinamento dos modelos, diferentes modelos seguem as instruções de nome de papel de maneiras diferentes, como humano/assistente, humano/ia, humano/assistente, etc para adaptar se aos efeitos de resposta de prompts de múltiplos modelos, o sistema fornece configurações de nome de papel da conversação modificar o nome do papel alterará o prefixo de papel no histórico da conversa templates jinja 2 o editor de prompts do llm suporta a linguagem de templates jinja 2, permitindo que você aproveite essa poderosa linguagem de templates do python para transformação leve de dados e processamento lógico consulte a documentação oficial