Few-Shot
Resumo em uma frase: Few-Shot Prompting é mostrar antes de pedir — e funciona porque exemplos bem escolhidos valem mais do que qualquer instrução elaborada.
O que é?
Few-Shot Prompting é uma técnica em que o prompt inclui um pequeno conjunto de exemplos (demonstrações) antes de apresentar a tarefa real. Esses exemplos funcionam como um "guia de estilo" inline — o modelo aprende o padrão esperado diretamente do contexto, sem nenhum retreinamento.
O termo reflete a quantidade de exemplos: few (poucos) — geralmente entre 1 e 8 pares de entrada/saída.
Por que funciona?
Few-Shot Prompting explora o mecanismo de aprendizado em contexto (in-context learning), demonstrado em escala por Brown et al. (2020) no paper do GPT-3. A descoberta central foi que modelos suficientemente grandes conseguem "aprender" um padrão a partir de exemplos fornecidos no próprio prompt — sem atualizar nenhum peso da rede neural.
Em termos práticos: os exemplos condicionam a distribuição de probabilidade da saída do modelo, tornando respostas fora do padrão demonstrado estatisticamente menos prováveis.
Exemplos práticos
Classificação de sentimento com exemplos:
Texto: "O produto superou minhas expectativas."
Sentimento: Positivo
Texto: "Entrega atrasada e embalagem danificada."
Sentimento: Negativo
Texto: "O atendimento foi razoável, mas o produto chegou com atraso."
Sentimento:
Neutro
Extração estruturada:
Entrada: "João Silva, gerente de TI da Empresa Alpha, relatou o incidente."
Saída: {"nome": "João Silva", "cargo": "gerente de TI", "empresa": "Empresa Alpha"}
Entrada: "A delegada Maria Costa, da 3ª DP, instaurou o inquérito."
Saída:
{"nome": "Maria Costa", "cargo": "delegada", "empresa": "3ª DP"}
O formato da saída é aprendido pelo modelo a partir das demonstrações — sem necessidade de instrução explícita sobre JSON.
Vantagens
| Vantagem | Descrição |
|---|---|
| Controle de formato | Exemplos definem exatamente como a saída deve ser estruturada |
| Maior precisão | Reduz ambiguidade em tarefas complexas ou especializadas |
| Sem retreinamento | Não exige fine-tuning — funciona direto no prompt |
| Adaptável | Troca de exemplos = troca de comportamento instantânea |
Limitações
- Custo em tokens: Cada exemplo ocupa espaço na janela de contexto, aumentando o custo por requisição.
- Qualidade dos exemplos: Exemplos ruins ou enviesados degradam a saída — garbage in, garbage out.
- Limite de contexto: Modelos com janelas pequenas restringem o número de exemplos viáveis.
- Não substitui fine-tuning: Para comportamentos muito específicos e consistentes, o fine-tuning ainda supera o few-shot.
Zero-Shot vs. Few-Shot
| Zero-Shot | Few-Shot | |
|---|---|---|
| Exemplos fornecidos | Nenhum | 1 a N |
| Custo em tokens | Baixo | Médio a alto |
| Controle de formato | Limitado | Alto |
| Tarefas complexas | Médio desempenho | Alto desempenho |
| Melhor uso | Tarefas diretas | Padrão rígido de saída |
Quando usar?
- O formato de saída é crítico e não negociável (JSON, tabelas, laudos padronizados);
- A tarefa é especializada e o zero-shot produziu resultados inconsistentes;
- Você precisa de comportamento reprodutível entre execuções;
- O domínio é técnico — forense, jurídico, médico — onde a precisão vocabular importa.
Quando mesmo o few-shot não for suficiente para tarefas de raciocínio encadeado, o próximo passo é o Chain-of-Thought Prompting — onde os exemplos incluem não só a resposta, mas o raciocínio passo a passo que leva até ela.
Referências
- Brown, T. et al. (2020). Language Models are Few-Shot Learners. NeurIPS 2020. arxiv.org/abs/2005.14165