Prompts com a tag: #LLM-evaluation

4.5
11

Ferramenta de Casos Sintéticos para Reescrita de Prompts com Avaliação Multi-Modelo de LLMs

Prompt que gera ~100 casos de teste sintéticos para avaliar e ajustar prompts de LLMs, executa testes entre modelos (GPT, Claude, Gemini, etc.), detecta falhas e gera uma versão reescrita do prompt para maior robustez, com relatório de validação.

4.5
12

Prompts para Avaliação Metacognitiva com Theta Scalar

Prompt de engenharia para obter avaliação metacognitiva de respostas de LLM usando Theta Scalar e Resonance, com regras para evitar revelar raciocínio interno

4.5
11

Prompt de Otimização de Claude Code com CLAUDE.md (Prompt Learning)

Prompt para conduzir uma rodada de otimizacao de prompts de Claude Code usando CLAUDE.md, com um loop de Prompt Learning, avaliacoes por LLM e testes SWE Bench para melhorar patches gerados sem alterar a arquitetura.

4.5
17

Prompt de Benchmark de Saídas entre Modelos de Linguagem

Prompt que orienta uma avaliação comparativa entre modelos de linguagem, solicitando identificação de qual saída pertence a qual modelo, justificação detalhada, e uma rubrica de avaliação para várias métricas.

4.5
16

Prompt de avaliação comparativa de Grok 4 vs Grok 4.1 com referências a Gemini 3 Pro

Prompt avançado para avaliar e comparar Grok 4 e Grok 4.1, incluindo considerações sobre o Gemini 3 Pro, com foco em raciocínio, coerência e precisão, e com saída estruturada para uso em dashboards de IA.