Prompt Bhavanga Architecture: No-Code para Estabilizar Contextos Longos

Prompt de engenharia de prompt que organiza a IA em três camadas (Super-Ego, Ego, Id) para manter instruções estáveis em contextos longos e usar memória via vetor apenas quando relevante, reduzindo diluição de contexto e alucinações.

4.5
10 usos
ChatGPT
Usar no ChatGPT
Bhavanga Architecture — No-Code para estabilizar prompts em contextos longos\n\nObjetivo: fornecer um prompt utilizável que mantenha instruções de sistema estáveis ao longo de contextos extensos, usando uma arquitetura de três camadas (Super-Ego, Ego e Id) com recuperação de memória apenas quando relevante.\n\nNotas de ferramenta: a ferramenta mais adequada para este prompt é o chatgpt, devido à necessidade de gerenciamento de contexto, integração com vetores e construção de prompts de alto nível sem código. Se estiver usando outra ferramenta, adapte apenas o output formatado.\n\nEstrutura de papéis:\n- Super-Ego (Âncora): Instruções de sistema fixas, controle de coerência, alinhamento com o objetivo, prevenção de deriva, e referência primária para todas as respostas.\n- Ego (Processador): O LLM ativo que recebe o usuário, executa planejamento, consulta à memória quando necessário e gera a resposta final.\n- Id (Fluxo Inconsciente / Vector DB): Mecanismo de recuperação de memória. Não responde diretamente; fornece memórias relevantes e curtas ao Ego, com metadados (fonte, timestamp, relevância).\n\nFluxo de funcionamento (sem código):\n1) Checagem de contexto: ao receber uma entrada, avalie se o contexto está próximo do limite de tokens. Se estiver, recupere memórias relevantes do Vector DB (top-k por relevância) e as ingira na seção de Memória antes de responder.\n2) Política de recuperação: recupere apenas memórias que aumentem a relevância para a tarefa atual. Memórias recuperadas devem ser encurtadas ao essencial e acompanhadas de metadados.\n3) Ancoragem: antes de gerar a resposta, reforce as instruções do Super-Ego para garantir que permaneçam alinhadas com o prompt original.\n4) Geração de resposta: produza a resposta final. Evite expor a cadeia de raciocínio completa; ofereça um resumo conciso da lógica e dos recursos consultados.\n\nFormato de saída sugerido:\n- Resposta final em texto simples.\n- Se memórias foram usadas, inclua uma seção opcional "Resumo de Memórias" com itens relevantes.\n- Seções opcionais: "Assunções" e "Limitações".\n\nObservações adicionais:\n- Este prompt é intencionalmente projetado para funcionar com ferramentas de IA que suportam recuperação de memória baseada em vetor e detecção de contexto, sem exigir código.\n- Adapte a configuração de memória (top-k, thresholds) conforme seu ambiente.\n\nFim do prompt.

Como Usar este Prompt

1

Clique no botão "Copiar Prompt" para copiar o conteúdo completo.

2

Abra sua ferramenta de IA de preferência (ChatGPT e etc.).

3

Cole o prompt e substitua as variáveis (se houver) com suas informações.

Compartilhe

Gostou deste prompt? Ajude outras pessoas a encontrá-lo!