Prompts com a tag: #memory-management

4.5
29

Prompt para manter Consistência de LLM em Fluxos de Trabalho Longos

Prompt avançado que ensina o modelo a manter consistência durante longos fluxos de trabalho, separando regras estáveis da lógica de tarefa, com mecanismos de memória, checkpoints e deriva de comportamento. Recomendado para uso com ChatGPT devido à robustez de prompts de instrução e gerenciamento de contexto; outras opções como Claude ou Gemini também podem funcionar, mas a orientação de instruções deste prompt maximiza a estabilidade em sessões prolongadas.

4.5
27

Estrutura de Saída com Context Scaffolding: Turn Headers e Turn Footers

Gera um prompt avançado que ensina a estruturar saídas de IA usando cabeçalhos e rodapés de turnos, com rastreamento de estado externo e referência precisa a turnos anteriores, útil para sessões longas.

4.5
29

Prompts para analisar e mitigar o drift de tom: structure decay

Prompt de análise experimental de drift de tom (structure decay) em prompts repetidos, com métricas, protocolo e mitigação, incluindo memória ON/OFF.

4.5
31

Prompt para gestão de prompts entre modelos de IA e continuidade sob outages

Prompt que gera diretrizes e prompts robustos para manter prompts consistentes entre diferentes IA e gerenciar outages, com armazenamento versionado e protocolo de fallback.

4.5
32

Prompt para Detecção e Mitigação de Drift em Diálogos de IA de Longa Duração

Prompt para analisar drift de tópico, repetição e cumprimento de constraints em conversas longas entre humano e IA, gerando insights e estratégias de mitigação.

4.5
29

Prompt para Director GPT: orquestração de múltiplos GPTs por modos

Prompt que orienta a criação de uma arquitetura de orquestração de GPTs, unificando múltiplos papéis em modos, com foco em consistência, recapitulação de sessão e avaliação de desempenho.

4.0
26

Prompt de projeto: Branch-Based Context Isolation para reduzir alucinações em LLMs

Gera um prompt detalhado para projetar, avaliar e demonstrar uma arquitetura de isolamento de contexto baseada em branches (ChatBCH) que reduz alucinações em LLMs, incluindo design de dados, pipeline de prompts, memória por branch, integração com RAG e plano de avaliação.