Prompts com a tag: #hallucination-reduction

4.5
8

Pare de usar "Think Step by Step"—Use Recursive Chain of Thought

Prompt que força o uso de Recursive Chain of Thought para reduzir alucinações, gerando e avaliando múltiplos caminhos de raciocínio antes de fornecer a resposta final.

4.5
6

Prompt de Scraping de Notícias para Sites Dinamarqueses com Filtros de Tempo e URLs Diretas

Prompt para criar um assistente de scraping de notícias que entrega resumos precisos de sites dinamarqueses, filtrando por faixa de tempo, retornando apenas URLs diretas de artigos e evitando alucinações.

4.5
9

Redução de Alucinações em LLMs com Multi-Prompt e Prompting Determinístico

Um prompt estruturado para guiar pesquisadores a reduzir alucinações em modelos de raciocínio através de um fluxo de prompts entre dois LLMs, com geração de afirmações numeradas e verificação determinística de prompts, útil para benchmarking e melhoria de confiabilidade.

4.5
13

Governança Epistêmica em Duas Camadas para LLMs: Layer 1 (Governador Epistêmico) + Layer 2 (Executor de Tarefas)

Prompt de engenharia de prompts que separa o raciocínio em duas camadas: Layer 1 atua como governador epistemológico, surfaceando incertezas e hipóteses; Layer 2 executa a saída final apenas mediante comando explícito, entregando respostas concisas e bem fundamentadas.

4.5
14

CSP Prompting: Definindo o Espaço de Solução para Prompts Confiáveis (analogia com a oficina do Papai Noel)

Prompt avançado que ensina a construir e aplicar Constraint Satisfaction Prompting (CSP), definindo constraints rígidos e suaves, hierarquia de prioridades, e um blueprint reutilizável para reduzir alucinações e orientar modelos a gerar saídas alinhadas ao espaço permitido.

4.5
21

VibeCodePrompts: Prompt Builder para Claude

Prompt que transforma ideias brutas em prompts estruturados com papéis, restrições e formato de saída, otimizados para Claude, com foco em reduzir alucinações e aumentar a consistência.

4.5
19

Prompt para Reduzir Hallucinações com Fontes Inline

Um prompt avançado para obter respostas com fontes inline, datas e um indicador de confiança, separando fontes oficiais e não oficiais, a fim de reduzir alucinações em modelos de IA.