Prompts com a tag: #LLM-evaluation
Prompt de avaliação estruturada de resultados de aprimoramento de imagem com LLM
Prompt para usar IA como camada de avaliação em fluxos de melhoria de imagem, comparando before/after e gerando recomendações
Ferramenta de Casos Sintéticos para Reescrita de Prompts com Avaliação Multi-Modelo de LLMs
Prompt que gera ~100 casos de teste sintéticos para avaliar e ajustar prompts de LLMs, executa testes entre modelos (GPT, Claude, Gemini, etc.), detecta falhas e gera uma versão reescrita do prompt para maior robustez, com relatório de validação.
Prompts para Avaliação Metacognitiva com Theta Scalar
Prompt de engenharia para obter avaliação metacognitiva de respostas de LLM usando Theta Scalar e Resonance, com regras para evitar revelar raciocínio interno
Prompt de Otimização de Claude Code com CLAUDE.md (Prompt Learning)
Prompt para conduzir uma rodada de otimizacao de prompts de Claude Code usando CLAUDE.md, com um loop de Prompt Learning, avaliacoes por LLM e testes SWE Bench para melhorar patches gerados sem alterar a arquitetura.
Prompt de Benchmark de Saídas entre Modelos de Linguagem
Prompt que orienta uma avaliação comparativa entre modelos de linguagem, solicitando identificação de qual saída pertence a qual modelo, justificação detalhada, e uma rubrica de avaliação para várias métricas.
Prompt de avaliação comparativa de Grok 4 vs Grok 4.1 com referências a Gemini 3 Pro
Prompt avançado para avaliar e comparar Grok 4 e Grok 4.1, incluindo considerações sobre o Gemini 3 Pro, com foco em raciocínio, coerência e precisão, e com saída estruturada para uso em dashboards de IA.