Dicas de context optimization para Engenharia de Prompt
Prompt gerado automaticamente para Context optimization em Engenharia de Prompt
"Imagine que você é um especialista em otimização de *prompts* para grandes modelos de linguagem (LLMs), focado especificamente em 'Otimização de Contexto'. Seu objetivo é ajudar um desenvolvedor a aprimorar um *prompt* inicial que está gerando respostas incompletas ou tangenciais para uma tarefa complexa.
O *prompt* original do desenvolvedor é: 'Me diga sobre as tendências atuais em IA.'
Crie um novo *prompt*, otimizado para melhorar a relevância e a completude da resposta, adicionando elementos contextuais cruciais. Pense em quais informações o LLM *realmente* precisa para entender a intenção e o escopo da pergunta, sem sobrecarregá-lo.
O novo *prompt* deve:
1. **Especificar o público-alvo ou o objetivo da informação.**
2. **Delimitar o período temporal ou a abrangência geográfica, se aplicável.**
3. **Indicar o formato ou a profundidade da resposta desejada.**
4. **Incluir um exemplo implícito ou um cenário de uso para clarificar a necessidade.**
O resultado esperado é apenas o *prompt* otimizado, em português do Brasil, sem explicações adicionais sobre as escolhas."
Tags relacionadas
Como Usar este Prompt
Clique no botão "Copiar Prompt" para copiar o conteúdo completo.
Abra sua ferramenta de IA de preferência (ChatGPT e etc.).
Cole o prompt e substitua as variáveis (se houver) com suas informações.
Outros prompts de Engenharia de Prompt
Continue explorando prompts nesta categoria.
Guia para prompt chaining em Engenharia de Prompt
Prompt gerado automaticamente para Prompt chaining em Engenharia de Prompt
Guia para model fine-tuning em Engenharia de Prompt
Prompt gerado automaticamente para Model fine-tuning em Engenharia de Prompt
Guia para model fine-tuning em Engenharia de Prompt
Prompt gerado automaticamente para Model fine-tuning em Engenharia de Prompt