Guia de Engenharia de Prompt

Amplie seu conhecimento sobre engenharia de prompt para usar no seu dia a dia.

Zero-Shot

Resumo em uma frase: Zero-Shot Prompting é a arte de pedir sem demonstrar — e funciona porque décadas de texto humano, instruction tuning e alinhamento por feedback moldaram o modelo muito antes de você chegar com sua pergunta.

O que é?

Zero-Shot Prompting é uma técnica de engenharia de prompt em que o modelo de linguagem recebe uma instrução ou tarefa sem nenhum exemplo prévio de como executá-la. O termo "zero-shot" (zero tentativas) refere-se exatamente à ausência de demonstrações: o modelo precisa generalizar a partir do conhecimento adquirido durante seu treinamento para responder corretamente ao que foi solicitado.

Em outras palavras, você simplesmente descreve o que quer — e confia que o modelo já sabe o suficiente para entregar.


Por que os modelos conseguem fazer Zero-Shot?

A capacidade zero-shot não surge do nada. Ela é resultado de uma cadeia de três fatores que se acumulam durante o desenvolvimento dos LLMs modernos:

1. Pré-treinamento em escala

Modelos como GPT-4, Claude e Gemini são expostos a quantidades massivas de texto humano — livros, artigos, código, conversas, documentos técnicos. Esse processo cria um conhecimento latente sobre padrões de linguagem, tarefas comuns e raciocínio geral. É a base, mas não é suficiente por si só.

2. Instruction Tuning

O passo seguinte é o instruction tuning: um processo de fine-tuning supervisionado em que o modelo é treinado em datasets compostos por pares de instrução e resposta esperada. Em vez de apenas prever o próximo token, o modelo aprende a seguir instruções. Wei et al. (2022) demonstraram que essa técnica melhora significativamente a capacidade zero-shot dos modelos — ou seja, a habilidade de executar tarefas sem exemplos.

3. RLHF — Reinforcement Learning from Human Feedback

O terceiro elemento é o RLHF (Aprendizado por Reforço com Feedback Humano). Adotado para escalar e refinar o instruction tuning, o RLHF ajusta o modelo para que suas respostas se alinhem melhor às preferências e expectativas humanas. É essa combinação — pré-treinamento + instruction tuning + RLHF — que alimenta modelos como o ChatGPT e que torna o zero-shot prompting tão poderoso na prática.

Pré-treinamento em escala
         ↓
Instruction Tuning (fine-tuning via instruções)
         ↓
RLHF (alinhamento às preferências humanas)
         ↓
Capacidade Zero-Shot emergente

Como funciona na prática?

Quando um prompt zero-shot é enviado, o modelo ativa o conhecimento construído nas três etapas acima sem precisar de "aquecimento" por exemplos. Você instrui diretamente — e o modelo executa.


Exemplos práticos

Classificação de sentimento:

Classifique o sentimento do texto a seguir como Positivo, Negativo ou Neutro.

Texto: "O atendimento foi razoável, mas o produto chegou com atraso."
Sentimento:
Neutro

Extração de informação:

Extraia o nome, cargo e empresa mencionados no texto abaixo.

Texto: "A diretora financeira Ana Lima, da empresa Horizonte S.A., confirmou os resultados do trimestre."

Tradução jurídica:

Traduza o texto a seguir para o inglês jurídico formal.

Texto: "O réu foi preso em flagrante delito pela prática de crime de receptação."

Em nenhum dos casos foram fornecidos exemplos de entrada e saída — apenas a instrução direta. O modelo já compreende os conceitos de "sentimento", "extração de entidades" e "tradução jurídica" — isso é a capacidade zero-shot em ação.


Vantagens

Vantagem Descrição
Agilidade Não exige curadoria de exemplos, tornando o desenvolvimento de prompts mais rápido
Economia de tokens Prompts menores = menor custo por requisição em APIs pagas
Flexibilidade Funciona bem em tarefas variadas sem necessidade de adaptação específica
Baixa barreira de entrada Ideal para usuários iniciantes em engenharia de prompt

Limitações

Apesar da praticidade, o zero-shot prompting tem limites importantes:

  • Ambiguidade: Sem exemplos, o modelo pode interpretar a tarefa de forma diferente do esperado.
  • Inconsistência: Em tarefas que exigem formato rígido de saída, os resultados podem variar entre execuções.
  • Tarefas especializadas: Domínios técnicos (medicina, direito, forense) frequentemente exigem contexto adicional para respostas precisas.
  • Raciocínio complexo: Problemas que demandam múltiplas etapas lógicas tendem a se beneficiar de abordagens como chain-of-thought prompting.

Zero-Shot vs. Few-Shot

Zero-Shot Few-Shot
Exemplos fornecidos Nenhum 1 a N exemplos
Custo em tokens Baixo Médio a alto
Precisão em tarefas simples Alta Alta
Precisão em tarefas complexas Média Alta
Melhor uso Tarefas diretas e bem definidas Tarefas com padrão específico de saída

Quando o zero-shot não funcionar conforme o esperado, o próximo passo natural é evoluir para o few-shot prompting, fornecendo demonstrações que guiem o modelo com mais precisão.


Quando usar?

O zero-shot prompting é a escolha certa quando:

  1. A tarefa é clara e bem delimitada (classificação, tradução, resumo);
  2. O tempo de desenvolvimento é limitado;
  3. A variação no formato de saída é aceitável;
  4. Você está fazendo prototipagem rápida antes de refinar a estratégia.

Para cenários críticos — como geração de laudos, análise forense ou decisões automatizadas em sistemas institucionais — recomenda-se evoluir para técnicas mais estruturadas, como few-shot prompting, chain-of-thought ou prompts com persona e guardrails explícitos.


Referências