Prompts com a tag: #hallucinations
Prompt para entender e mitigar alucinações em LLMs
Prompt para analisar as causas de alucinações em LLMs e gerar um conjunto estruturado de estratégias de mitigação, prompts, métricas e adaptações de domínio.
Grounding e Verificação de Fatos em IA: Prompt para Reduzir Alucinações
Prompt para reduzir alucinações em IA, obrigando o modelo a fornecer fontes, indicar confiança e oferecer correções quando necessário.
Prompt de Avaliação de Alucinações em LLM: Grok 4.1 vs GPT/Gemini
Prompt que orienta a avaliação de alucinações em LLMs, comparando Grok 4.1 com GPT e Gemini, e propondo métricas, cenários de teste e estratégias de mitigação.
Auditoria de Saídas de IA: prompt para detectar, validar e corrigir falhas sutis
Prompt de auditoria de IA que guia o sistema a detectar, validar e corrigir erros sutis em saídas, usando documentos anexados como base, com relatório estruturado e checklist de validação.
Prompt de Robustez e Controle de Qualidade para IA (Clarificação, Formatação Opcional e Redução de Alucinações)
Prompt para calibrar modelos de IA a manter consistência, evitar alucinações e respeitar preferências de formatação, com fluxo de clarificação e avaliação de qualidade.
Prompt para Desenvolvimento de Custom GPTs: Fluxo de Trabalho, Drift e Memória
Guia prático para criar, manter e melhorar Custom GPTs, cobrindo fluxo de trabalho, mitigação de drift e alucinações, gestão de sessão e transferência de conhecimento, com foco na acessibilidade para usuários com dificuldades de memória.