Prompts com a tag: #benchmark

4.5
2

Prompt de Avaliação Comparativa DeepSeek vs ChatGPT em Tarefas Reais

Prompt para criar um protocolo padronizado de avaliação entre DeepSeek e ChatGPT em tarefas reais, incluindo tarefas, métricas, prompts de teste, planilha de resultados e relatório final.

4.5
5

Prompt como Sistema Vivo: Competição e Benchmarking de Prompts

Prompt criado para estruturar uma competição/benchmark que trate prompts como sistemas vivos, definindo regras, métricas e fluxos de avaliação para melhoria contínua em tempo real.

4.5
5

Brevit vs JSON vs YAML: Prompt de Benchmark para Otimização de Tokens em LLM

Prompt que orienta um experimento de comparação entre Brevit, JSON e YAML, com foco na otimização de tokens para LLM, incluindo critérios de avaliação, benchmark prático e recomendações.

4.5
10

Prompt para explorar memória de agentes com Hindsight e LongMemEval

Prompt avançado para gerar um conjunto completo de diretrizes, arquitetura de memória, planos de experimento e código de exemplo para avaliar memórias de agentes baseadas em Hindsight e LongMemEval.

4.5
12

Prompt de Benchmark Multimodelo com Perplexity Pro

Prompt avançado para comparar múltiplos modelos da Perplexity Pro, avaliando qualidade, fontes, e consistência, com saída estruturada e recomendação de uso.

4.0
13

Prompt de Análise de GPT-5.2 e Megathread

Prompt que gera resumo, comparação, perguntas e cenários de teste sobre o anúncio de GPT-5.2 e a megathread associada.

4.0
12

Prompt de avaliação: TOON vs JSON para economia de tokens

Prompt para IA que busca comparar a eficiência de tokens entre TOON e JSON, propondo uma metodologia reproduzível, dados de teste variados e recomendações práticas.

4.5
15

Prompt Mestre para Artemis v1.2 offline (CPU-only, 96B)

Prompt mestre para orientar Artemis v1.2 (96B, CPU-only, offline) na configuração, criação de prompts modulares, benchmarking e diretrizes de segurança.