Zero-Shot
Resumo em uma frase: Zero-Shot Prompting é a arte de pedir sem demonstrar — e funciona porque décadas de texto humano, instruction tuning e alinhamento por feedback moldaram o modelo muito antes de você chegar com sua pergunta.
O que é?
Zero-Shot Prompting é uma técnica de engenharia de prompt em que o modelo de linguagem recebe uma instrução ou tarefa sem nenhum exemplo prévio de como executá-la. O termo "zero-shot" (zero tentativas) refere-se exatamente à ausência de demonstrações: o modelo precisa generalizar a partir do conhecimento adquirido durante seu treinamento para responder corretamente ao que foi solicitado.
Em outras palavras, você simplesmente descreve o que quer — e confia que o modelo já sabe o suficiente para entregar.
Por que os modelos conseguem fazer Zero-Shot?
A capacidade zero-shot não surge do nada. Ela é resultado de uma cadeia de três fatores que se acumulam durante o desenvolvimento dos LLMs modernos:
1. Pré-treinamento em escala
Modelos como GPT-4, Claude e Gemini são expostos a quantidades massivas de texto humano — livros, artigos, código, conversas, documentos técnicos. Esse processo cria um conhecimento latente sobre padrões de linguagem, tarefas comuns e raciocínio geral. É a base, mas não é suficiente por si só.
2. Instruction Tuning
O passo seguinte é o instruction tuning: um processo de fine-tuning supervisionado em que o modelo é treinado em datasets compostos por pares de instrução e resposta esperada. Em vez de apenas prever o próximo token, o modelo aprende a seguir instruções. Wei et al. (2022) demonstraram que essa técnica melhora significativamente a capacidade zero-shot dos modelos — ou seja, a habilidade de executar tarefas sem exemplos.
3. RLHF — Reinforcement Learning from Human Feedback
O terceiro elemento é o RLHF (Aprendizado por Reforço com Feedback Humano). Adotado para escalar e refinar o instruction tuning, o RLHF ajusta o modelo para que suas respostas se alinhem melhor às preferências e expectativas humanas. É essa combinação — pré-treinamento + instruction tuning + RLHF — que alimenta modelos como o ChatGPT e que torna o zero-shot prompting tão poderoso na prática.
Pré-treinamento em escala
↓
Instruction Tuning (fine-tuning via instruções)
↓
RLHF (alinhamento às preferências humanas)
↓
Capacidade Zero-Shot emergente
Como funciona na prática?
Quando um prompt zero-shot é enviado, o modelo ativa o conhecimento construído nas três etapas acima sem precisar de "aquecimento" por exemplos. Você instrui diretamente — e o modelo executa.
Exemplos práticos
Classificação de sentimento:
Classifique o sentimento do texto a seguir como Positivo, Negativo ou Neutro.
Texto: "O atendimento foi razoável, mas o produto chegou com atraso."
Sentimento:
Neutro
Extração de informação:
Extraia o nome, cargo e empresa mencionados no texto abaixo.
Texto: "A diretora financeira Ana Lima, da empresa Horizonte S.A., confirmou os resultados do trimestre."
Tradução jurídica:
Traduza o texto a seguir para o inglês jurídico formal.
Texto: "O réu foi preso em flagrante delito pela prática de crime de receptação."
Em nenhum dos casos foram fornecidos exemplos de entrada e saída — apenas a instrução direta. O modelo já compreende os conceitos de "sentimento", "extração de entidades" e "tradução jurídica" — isso é a capacidade zero-shot em ação.
Vantagens
| Vantagem | Descrição |
|---|---|
| Agilidade | Não exige curadoria de exemplos, tornando o desenvolvimento de prompts mais rápido |
| Economia de tokens | Prompts menores = menor custo por requisição em APIs pagas |
| Flexibilidade | Funciona bem em tarefas variadas sem necessidade de adaptação específica |
| Baixa barreira de entrada | Ideal para usuários iniciantes em engenharia de prompt |
Limitações
Apesar da praticidade, o zero-shot prompting tem limites importantes:
- Ambiguidade: Sem exemplos, o modelo pode interpretar a tarefa de forma diferente do esperado.
- Inconsistência: Em tarefas que exigem formato rígido de saída, os resultados podem variar entre execuções.
- Tarefas especializadas: Domínios técnicos (medicina, direito, forense) frequentemente exigem contexto adicional para respostas precisas.
- Raciocínio complexo: Problemas que demandam múltiplas etapas lógicas tendem a se beneficiar de abordagens como chain-of-thought prompting.
Zero-Shot vs. Few-Shot
| Zero-Shot | Few-Shot | |
|---|---|---|
| Exemplos fornecidos | Nenhum | 1 a N exemplos |
| Custo em tokens | Baixo | Médio a alto |
| Precisão em tarefas simples | Alta | Alta |
| Precisão em tarefas complexas | Média | Alta |
| Melhor uso | Tarefas diretas e bem definidas | Tarefas com padrão específico de saída |
Quando o zero-shot não funcionar conforme o esperado, o próximo passo natural é evoluir para o few-shot prompting, fornecendo demonstrações que guiem o modelo com mais precisão.
Quando usar?
O zero-shot prompting é a escolha certa quando:
- A tarefa é clara e bem delimitada (classificação, tradução, resumo);
- O tempo de desenvolvimento é limitado;
- A variação no formato de saída é aceitável;
- Você está fazendo prototipagem rápida antes de refinar a estratégia.
Para cenários críticos — como geração de laudos, análise forense ou decisões automatizadas em sistemas institucionais — recomenda-se evoluir para técnicas mais estruturadas, como few-shot prompting, chain-of-thought ou prompts com persona e guardrails explícitos.
Referências
- Wei, J. et al. (2022). Finetuned Language Models Are Zero-Shot Learners. ICLR 2022. arxiv.org/pdf/2109.01652