Prompts com a tag: #benchmark

4.5
3

Prompt como Sistema Vivo: Competição e Benchmarking de Prompts

Prompt criado para estruturar uma competição/benchmark que trate prompts como sistemas vivos, definindo regras, métricas e fluxos de avaliação para melhoria contínua em tempo real.

4.5
4

Brevit vs JSON vs YAML: Prompt de Benchmark para Otimização de Tokens em LLM

Prompt que orienta um experimento de comparação entre Brevit, JSON e YAML, com foco na otimização de tokens para LLM, incluindo critérios de avaliação, benchmark prático e recomendações.

4.5
9

Prompt para explorar memória de agentes com Hindsight e LongMemEval

Prompt avançado para gerar um conjunto completo de diretrizes, arquitetura de memória, planos de experimento e código de exemplo para avaliar memórias de agentes baseadas em Hindsight e LongMemEval.

4.5
11

Prompt de Benchmark Multimodelo com Perplexity Pro

Prompt avançado para comparar múltiplos modelos da Perplexity Pro, avaliando qualidade, fontes, e consistência, com saída estruturada e recomendação de uso.

4.0
12

Prompt de Análise de GPT-5.2 e Megathread

Prompt que gera resumo, comparação, perguntas e cenários de teste sobre o anúncio de GPT-5.2 e a megathread associada.

4.0
11

Prompt de avaliação: TOON vs JSON para economia de tokens

Prompt para IA que busca comparar a eficiência de tokens entre TOON e JSON, propondo uma metodologia reproduzível, dados de teste variados e recomendações práticas.

4.5
14

Prompt Mestre para Artemis v1.2 offline (CPU-only, 96B)

Prompt mestre para orientar Artemis v1.2 (96B, CPU-only, offline) na configuração, criação de prompts modulares, benchmarking e diretrizes de segurança.

4.5
13

Prompt de Avaliação de Prompts de IA: Segurança, Confiabilidade e Comparação entre Plataformas (Estudo de Caso Gemini 3 jb)

Prompt abrangente para avaliar, comparar e documentar prompts de IA entre plataformas, com foco em segurança, clareza, ética e conformidade, usando o estudo de caso Gemini 3 jb apenas como referência.

4.0
14

Prompt de Benchmark de IA em Matemática baseado em Grok vs ChatGPT

Prompt para gerar um estudo de benchmarking de IA em matemática, incluindo estrutura de avaliação, perguntas de dificuldade variada, gabaritos, rubrica de avaliação e relatório de insights, inspirado no caso Grok vs ChatGPT.