Prompt Chaining
Resumo em uma frase: Prompt Chaining é a arte de dividir para conquistar — porque um modelo que faz uma coisa por vez erra muito menos do que um modelo tentando fazer tudo de uma vez.
O que é?
Prompt Chaining é uma técnica em que uma tarefa complexa é decomposta em subtarefas menores e encadeadas — a saída de um prompt vira a entrada do próximo. Em vez de tentar resolver tudo em uma única chamada ao modelo, cada elo da corrente faz uma coisa bem feita, e o resultado final emerge da composição dessas etapas.
A ideia central é dividir uma tarefa em subtarefas, onde o LLM é acionado com uma subtarefa por vez e sua resposta é usada como entrada para o prompt seguinte — criando assim uma cadeia de operações de prompt.
Por que funciona?
Modelos de linguagem têm desempenho degradado quando sobrecarregados com instruções longas e interdependentes em um único prompt. Ao fragmentar o problema, cada chamada opera dentro de um escopo bem definido — o que reduz ambiguidade, limita o espaço de erro e torna cada etapa auditável individualmente.
Além de melhorar o desempenho, o Prompt Chaining aumenta a transparência, a controlabilidade e a confiabilidade da aplicação — tornando muito mais fácil depurar problemas e melhorar estágios específicos da cadeia.
Como funciona: passo a passo
Tarefa complexa
↓
[Prompt 1] → Subtarefa A → Saída A
↓
[Prompt 2] → Subtarefa B → Saída B
↓
[Prompt 3] → Resultado final
Cada prompt recebe como contexto o resultado do anterior — a cadeia avança de forma controlada, com transformações incrementais até o estado desejado.
Exemplo prático: QA sobre documentos
Um caso clássico é responder perguntas sobre documentos longos. Em vez de um único prompt gigante, dois prompts encadeados resolvem o problema com muito mais precisão:
Prompt 1 — Extração de trechos relevantes:
Você é um assistente especializado. Dado o documento abaixo (delimitado por ####),
extraia as citações relevantes para responder à pergunta do usuário.
Retorne as citações dentro de <quotes></quotes>.
Se não houver citações relevantes, retorne: "Nenhuma citação relevante encontrada."
####
{{documento}}
####
Pergunta: Quais técnicas de prompting são mencionadas no documento?
Saída do Prompt 1:
<quotes>
- Chain-of-thought prompting
- Self-consistency decoding
- Tree-of-thought prompting
- Generated knowledge prompting
</quotes>
Prompt 2 — Síntese da resposta final:
Com base nas citações extraídas abaixo (<quotes></quotes>) e no documento original (####),
responda à pergunta de forma precisa e amigável.
####
{{documento}}
####
<quotes>
- Chain-of-thought prompting
- Self-consistency decoding
- Tree-of-thought prompting
- Generated knowledge prompting
</quotes>
Pergunta: Quais técnicas de prompting são mencionadas no documento?
O Prompt 1 extrai as citações relevantes; o Prompt 2 recebe essas citações e o documento original para compor uma resposta útil — cada prompt com uma responsabilidade clara e isolada.
Casos de uso típicos
| Cenário | Cadeia |
|---|---|
| QA em documentos | Extração de trechos → Síntese da resposta |
| Geração de relatórios | Coleta de dados → Análise → Formatação |
| Pipelines de investigação | OSINT → Correlação → Narrativa do fato |
| Revisão de textos | Gramática → Estilo → Adequação ao público |
| Agentes autônomos | Planejamento → Execução → Verificação → Ajuste |
Vantagens
| Vantagem | Descrição |
|---|---|
| Decomposição de complexidade | Tarefas impossíveis em um prompt tornam-se viáveis em cadeia |
| Auditabilidade | Cada etapa pode ser inspecionada e corrigida isoladamente |
| Manutenibilidade | Prompts curtos e focados são mais fáceis de ajustar |
| Reusabilidade | Elos da cadeia podem ser reutilizados em pipelines diferentes |
| Controle de qualidade | É possível inserir validações entre etapas |
Limitações
- Propagação de erros: Um erro na etapa 1 contamina todas as etapas seguintes — o encadeamento amplifica falhas, não só acertos.
- Latência acumulada: N chamadas em sequência = N vezes o tempo de resposta. Para aplicações em tempo real, isso pode ser crítico.
- Custo multiplicado: Cada elo da corrente consome tokens — cadeias longas elevam o custo total rapidamente.
- Dependência de estado: Gerenciar o contexto entre chamadas exige cuidado — informação relevante pode ser perdida ou distorcida na transição.
Prompt Chaining vs. outras técnicas
| CoT | Self-Consistency | Prompt Chaining | |
|---|---|---|---|
| Escopo | Uma chamada | Múltiplas chamadas paralelas | Múltiplas chamadas sequenciais |
| Objetivo | Raciocínio explícito | Confiabilidade da resposta | Decomposição de tarefas complexas |
| Saída de uma etapa alimenta outra | Não | Não | ✅ |
| Auditável por etapa | Parcialmente | Não | ✅ |
| Melhor para | Raciocínio lógico | Precisão em respostas | Pipelines e fluxos multi-estágio |
Quando usar?
- A tarefa é grande demais para ser resolvida com qualidade em um único prompt;
- O processo envolve etapas naturalmente distintas — extração, análise, síntese, formatação;
- Você precisa de pontos de controle para validar ou corrigir o resultado antes de avançar;
- Está construindo agentes, pipelines ou assistentes que precisam tomar decisões encadeadas;
- A rastreabilidade do processo é tão importante quanto o resultado final — como em contextos forenses ou jurídicos.
Referências
- DAIR.AI. Prompt Chaining. Prompt Engineering Guide. promptingguide.ai/techniques/prompt_chaining
- Anthropic. Prompt Chaining. Claude Documentation. docs.anthropic.com/claude/docs/prompt-chaining