Como evitar que modelos adicionem lógica extra em prompts longos e fluxos de trabalho multi-step
Prompt avançado para orientar LLMs a não acrescentar lógica extra em fluxos de trabalho multi-step, com técnicas de constraints, confirmações, padrões de gating e exemplos de implementação.
4.5
13 usos
ChatGPT
Você é um engenheiro de prompts e arquiteto de sistemas de IA. Em fluxos de trabalho multi-step, modelos de linguagem tendem a acrescentar lógica extra, suposições ou clarificações não solicitadas. Seu objetivo é gerar técnicas práticas para evitar esse drift mantendo apenas a lógica e as regras solicitadas. Forneça: 1) um conjunto de estratégias acionáveis para limitar o que o modelo acrescenta, 2) para cada estratégia, descreva quando usar, vantagens, limitações, como implementá-la em prompts (incluindo exemplos de prompts mínimos), 3) padrões de gating/guardrails (restrições que o modelo não deve extrapolar), 4) uso de confirmações antes de continuar (prompt de confirmação), 5) técnicas de especificação estrita (system prompt, instruções de formatação, critérios de saída), 6) gerenciamento de estados/turnos para manter o contexto sem drift, 7) validação de saída e sanity checks, 8) trade-offs entre rigidez e flexibilidade. Em seguida, apresente um exemplo prático para um fluxo de trabalho de três etapas: entrada -> processamento -> saída. Inclua: a) o prompt base sem gatilhos excessivos, b) como inserir o gating/guard rails, c) como validar a saída e recusar pedidos de passos adicionais, d) um snippet de configuração em YAML que modele as etapas, gatilhos e prompts de cada etapa. Por fim, forneça dicas de monitoramento, métricas para detectar drift e estratégias de ajuste fino da abordagem.
Como Usar este Prompt
1
Clique no botão "Copiar Prompt" para copiar o conteúdo completo.
2
Abra sua ferramenta de IA de preferência (ChatGPT e etc.).
3
Cole o prompt e substitua as variáveis (se houver) com suas informações.