·7 min read

Como escrever prompts melhores para o Claude

Authors
  • avatar
    Name
    ThePromptEra Editorial
    Twitter

Como escrever prompts melhores para o Claude (que realmente funcionam)

A maioria das pessoas trata o Claude como um Google glorificado. Digita uma pergunta vaga, recebe uma resposta morna e conclui que a ferramenta é hype. O problema quase nunca é o Claude. É o prompt. O Claude é particularmente sensível a contexto, instruções de tom e restrições estruturadas, mais do que a maioria dos modelos que tenho testado com regularidade. Este artigo cobre quatro mecânicas que de fato fazem diferença: enquadramento de papel, restrições de output, nudges de raciocínio encadeado e os erros que silenciosamente destroem a qualidade das respostas. Aplique isso e você vai receber respostas aproveitáveis direto, não rascunhos que exigem uma hora de revisão.

Enquadramento de papel muda tudo, e quase ninguém faz isso

O Claude responde de formas diferentes dependendo de como você define o contexto de operação. Esse é um comportamento verificado, documentado nas próprias orientações de prompting da Anthropic, e consistente com o que você observa na prática.

A diferença entre "explica machine learning" e "você é um cientista de dados sênior explicando machine learning para um CFO que controla o seu orçamento" não é sutil. O segundo prompt gera um output calibrado em vocabulário, profundidade e enquadramento. O primeiro entrega um resumo de Wikipedia.

O enquadramento de papel funciona porque cria restrições implícitas. Quando você diz ao Claude que ele é um editor cético revisando um pitch de captação, ele para de concordar com tudo e começa a questionar. Quando você diz que ele é um analista júnior resumindo um relatório para um diretor ocupado, ele comprime e prioriza de forma diferente.

O formato prático é simples. Comece com "Você é [papel específico] trabalhando em [contexto específico] para [público específico]." Não precisa ser elaborado. Precisa ser preciso. Um enquadramento de uma frase supera consistentemente um preâmbulo de três parágrafos vago sobre o que realmente importa.

Minha leitura é que o Claude usa o enquadramento de papel parcialmente como sinal de registro adequado, não apenas de foco temático. É por isso que a mesma pergunta técnica recebe respostas diferentes quando enquadrada para um desenvolvedor versus um gerente de produto.

Restrições de output reduzem o tempo de revisão mais do que qualquer outra técnica

Se você não está especificando formato, tamanho e estrutura no seu prompt, está terceirizando as decisões editoriais para o modelo. Isso é um erro.

O Claude, como a maioria dos grandes modelos de linguagem, vai para um modo abrangente-mas-genérico quando não tem restrições. Ele pondera. Adiciona ressalvas. Inclui contexto que você não precisava. Isso não é exatamente um defeito, é o modelo tentando ser útil diante da incerteza. O seu trabalho é eliminar essa incerteza.

Restrições específicas que funcionam bem na prática:

Tamanho. "Responda em menos de 150 palavras" ou "me dê um resumo de três frases" força compressão e geralmente melhora a clareza.

Formato. "Responda apenas em bullet points" ou "use uma tabela com colunas para prós, contras e nível de esforço" entrega algo estruturalmente útil em vez de um bloco de texto.

Exclusões. "Não inclua ressalvas ou disclaimers" é uma das restrições mais subutilizadas. O Claude adiciona linguagem de precaução por padrão. Se você já conhece as limitações, diga para ele pular.

Tom. "Escreva em tom direto e seco, sem entusiasmo" muda o registro de forma significativa. O padrão do Claude é caloroso e prestativo. Nem sempre é isso que você quer.

Nos nossos testes, adicionar um bloco de três linhas de restrições a um prompt existente reduziu de forma consistente o trabalho de edição necessário no output. O bloco de restrições não precisa ser longo. Precisa ser específico.

Raciocínio encadeado: quando usar e quando é exagero

Raciocínio encadeado significa pedir ao Claude que pense por um problema passo a passo antes de te dar a resposta final. Está bem documentado na literatura de pesquisa como melhora para precisão em tarefas de raciocínio complexo, especialmente aquelas que envolvem lógica, matemática ou decisões em múltiplas etapas.

A versão prática é simples. Adicione "pense por isso passo a passo antes de responder" ou "primeiro esboce seu raciocínio, depois me dê sua conclusão." Só isso. Você não precisa de frameworks elaborados.

Onde isso realmente ajuda: tarefas de análise, trade-offs estratégicos, depuração de lógica, avaliação de argumentos. Você vai notar que o Claude identifica coisas no próprio raciocínio que teria ignorado numa resposta direta.

Onde é exagero: perguntas factuais simples, tarefas de formatação, sumarização, tradução. Pedir ao Claude que raciocine passo a passo sobre como resumir um parágrafo só adiciona tokens e desperdiça seu tempo.

Existe uma variação chamada "scratchpad prompting" onde você pede ao Claude que raciocine em um bloco separado antes de produzir o output final. Isso é especialmente útil quando você quer verificar o raciocínio de forma independente da resposta. A Anthropic discutiu essa abordagem em documentação pública sobre comportamento do modelo, embora a terminologia varie conforme o contexto.

Acho que a maioria dos profissionais subutiliza o raciocínio encadeado para decisões estratégicas e o superutiliza para todo o resto. Combine a técnica com a complexidade da tarefa.

3 erros que degradam silenciosamente cada resposta que você recebe

Esses são os padrões que produzem outputs fracos de forma consistente, e a maioria das pessoas não os percebe porque os resultados parecem razoáveis na superfície.

Fazer perguntas compostas em um único prompt. "Pode analisar essa estratégia, sugerir alternativas e redigir um e-mail sobre isso?" são três prompts disfarçados de um. O Claude vai tentar os três e não vai executar nenhum tão bem quanto faria se estivessem separados. Quebre pedidos compostos em prompts sequenciais.

Ser vago sobre o leitor pretendido. "Explica de forma simples" não significa nada sem contexto. Simples para quem? Um especialista lendo rápido ou alguém de fora da área lendo com cuidado? São outputs completamente diferentes. Especifique o público explicitamente.

Não fornecer ponto de partida para trabalho criativo ou analítico. "Escreve uma análise competitiva" não dá ao Claude nada para ancorar. "Aqui está nosso produto, nossos dois principais concorrentes e as três coisas que mais preciso entender: escreva uma análise competitiva" oferece um frame utilizável. Quanto mais específico o input, mais específico e aproveitável o output.

A maioria das pessoas ignora isso: prompts vagos não produzem respostas ruins. Produzem respostas genéricas. Genérico parece aceitável até você tentar de fato usar.

FAQ

O tamanho do prompt importa? Devo escrever prompts mais longos? Tamanho importa menos do que especificidade. Um prompt de dez palavras com um enquadramento de papel preciso e uma restrição de output vai superar um prompt de duzentas palavras vago sobre o que você realmente precisa. Dito isso, para tarefas complexas, fornecer contexto relevante e exemplos ajuda de verdade. Mais informação só melhora o output quando é informação relevante.

Prompting do Claude é diferente do ChatGPT ou do Gemini? Sim, na prática, embora os princípios centrais se sobreponham. O Claude é particularmente responsivo a instruções explícitas de persona e tom, e tende a adotar com mais facilidade uma postura crítica ou contrária quando solicitado. Minha leitura é que ele também é mais sensível ao enquadramento de restrições éticas, o que pode afetar outputs em contextos profissionais ou sensíveis. Testar o mesmo prompt em diferentes modelos é a forma mais rápida de ver as diferenças reais.

Posso salvar templates de prompts para reutilizar? O Claude em si não armazena prompts entre sessões por padrão. Você pode manter uma biblioteca pessoal de templates em um app de notas ou documento e colá-los quando necessário. Algumas ferramentas de terceiros e wrappers de API oferecem funcionalidades de gerenciamento de prompts. Se você usa o Claude via uma organização, pergunte se system prompts ou contextos salvos estão disponíveis na sua configuração.

O que fazer agora

Pegue um prompt que você usou essa semana e que gerou um resultado m