Guia de Engenharia de Prompt

Amplie seu conhecimento sobre engenharia de prompt para usar no seu dia a dia.

Prompt Chaining

Resumo em uma frase: Prompt Chaining é a arte de dividir para conquistar — porque um modelo que faz uma coisa por vez erra muito menos do que um modelo tentando fazer tudo de uma vez.

O que é?

Prompt Chaining é uma técnica em que uma tarefa complexa é decomposta em subtarefas menores e encadeadas — a saída de um prompt vira a entrada do próximo. Em vez de tentar resolver tudo em uma única chamada ao modelo, cada elo da corrente faz uma coisa bem feita, e o resultado final emerge da composição dessas etapas.

A ideia central é dividir uma tarefa em subtarefas, onde o LLM é acionado com uma subtarefa por vez e sua resposta é usada como entrada para o prompt seguinte — criando assim uma cadeia de operações de prompt.


Por que funciona?

Modelos de linguagem têm desempenho degradado quando sobrecarregados com instruções longas e interdependentes em um único prompt. Ao fragmentar o problema, cada chamada opera dentro de um escopo bem definido — o que reduz ambiguidade, limita o espaço de erro e torna cada etapa auditável individualmente.

Além de melhorar o desempenho, o Prompt Chaining aumenta a transparência, a controlabilidade e a confiabilidade da aplicação — tornando muito mais fácil depurar problemas e melhorar estágios específicos da cadeia.


Como funciona: passo a passo

Tarefa complexa
      ↓
[Prompt 1] → Subtarefa A → Saída A
                                ↓
                        [Prompt 2] → Subtarefa B → Saída B
                                                        ↓
                                                [Prompt 3] → Resultado final

Cada prompt recebe como contexto o resultado do anterior — a cadeia avança de forma controlada, com transformações incrementais até o estado desejado.


Exemplo prático: QA sobre documentos

Um caso clássico é responder perguntas sobre documentos longos. Em vez de um único prompt gigante, dois prompts encadeados resolvem o problema com muito mais precisão:

Prompt 1 — Extração de trechos relevantes:

Você é um assistente especializado. Dado o documento abaixo (delimitado por ####),
extraia as citações relevantes para responder à pergunta do usuário.
Retorne as citações dentro de <quotes></quotes>.
Se não houver citações relevantes, retorne: "Nenhuma citação relevante encontrada."

####
{{documento}}
####

Pergunta: Quais técnicas de prompting são mencionadas no documento?

Saída do Prompt 1:

<quotes>
- Chain-of-thought prompting
- Self-consistency decoding
- Tree-of-thought prompting
- Generated knowledge prompting
</quotes>

Prompt 2 — Síntese da resposta final:

Com base nas citações extraídas abaixo (<quotes></quotes>) e no documento original (####),
responda à pergunta de forma precisa e amigável.

####
{{documento}}
####

<quotes>
- Chain-of-thought prompting
- Self-consistency decoding
- Tree-of-thought prompting
- Generated knowledge prompting
</quotes>

Pergunta: Quais técnicas de prompting são mencionadas no documento?

O Prompt 1 extrai as citações relevantes; o Prompt 2 recebe essas citações e o documento original para compor uma resposta útil — cada prompt com uma responsabilidade clara e isolada.


Casos de uso típicos

Cenário Cadeia
QA em documentos Extração de trechos → Síntese da resposta
Geração de relatórios Coleta de dados → Análise → Formatação
Pipelines de investigação OSINT → Correlação → Narrativa do fato
Revisão de textos Gramática → Estilo → Adequação ao público
Agentes autônomos Planejamento → Execução → Verificação → Ajuste

Vantagens

Vantagem Descrição
Decomposição de complexidade Tarefas impossíveis em um prompt tornam-se viáveis em cadeia
Auditabilidade Cada etapa pode ser inspecionada e corrigida isoladamente
Manutenibilidade Prompts curtos e focados são mais fáceis de ajustar
Reusabilidade Elos da cadeia podem ser reutilizados em pipelines diferentes
Controle de qualidade É possível inserir validações entre etapas

Limitações

  • Propagação de erros: Um erro na etapa 1 contamina todas as etapas seguintes — o encadeamento amplifica falhas, não só acertos.
  • Latência acumulada: N chamadas em sequência = N vezes o tempo de resposta. Para aplicações em tempo real, isso pode ser crítico.
  • Custo multiplicado: Cada elo da corrente consome tokens — cadeias longas elevam o custo total rapidamente.
  • Dependência de estado: Gerenciar o contexto entre chamadas exige cuidado — informação relevante pode ser perdida ou distorcida na transição.

Prompt Chaining vs. outras técnicas

CoT Self-Consistency Prompt Chaining
Escopo Uma chamada Múltiplas chamadas paralelas Múltiplas chamadas sequenciais
Objetivo Raciocínio explícito Confiabilidade da resposta Decomposição de tarefas complexas
Saída de uma etapa alimenta outra Não Não
Auditável por etapa Parcialmente Não
Melhor para Raciocínio lógico Precisão em respostas Pipelines e fluxos multi-estágio

Quando usar?

  1. A tarefa é grande demais para ser resolvida com qualidade em um único prompt;
  2. O processo envolve etapas naturalmente distintas — extração, análise, síntese, formatação;
  3. Você precisa de pontos de controle para validar ou corrigir o resultado antes de avançar;
  4. Está construindo agentes, pipelines ou assistentes que precisam tomar decisões encadeadas;
  5. A rastreabilidade do processo é tão importante quanto o resultado final — como em contextos forenses ou jurídicos.

Referências