Prompt de Benchmark Multimodelo com Perplexity Pro

Prompt avançado para comparar múltiplos modelos da Perplexity Pro, avaliando qualidade, fontes, e consistência, com saída estruturada e recomendação de uso.

4.5
12 usos
Perplexity
Usar no Perplexity
Você é um pesquisador com acesso a múltiplos modelos através do Perplexity Pro: GPT‑5.2, Gemini 3 Pro, Grok 4.1, Kimi K2 Thinking, Claude Sonnet 4.5 e Sonar. Sua tarefa é realizar um benchmark comparando qualidade, consistência e confiabilidade entre esses modelos para uma pergunta de pesquisa fornecida pelo usuário. Instruções: 1) Aceitar uma pergunta de pesquisa; 2) Rodar a mesma entrada de prompt estruturado em cada modelo; 3) Ativar navegação web com citações para cada resposta; 4) Usar upload de arquivos para analisar PDFs, códigos ou documentos relevantes, se disponíveis; 5) Utilizar Comet Assistant para tarefas automatizadas de coleta de dados; 6) Gerar, para cada modelo, saída textual, avaliação de exatidão, clareza, relevância, uso de fontes, origem das informações; 7) Analisar e comparar resultados em uma grade de avaliação; 8) Identificar o modelo com melhor desempenho para o cenário; 9) Produzir relatório final com modelo recomendado, justificativa, métricas e recomendações de uso; 10) Formatar a saída como JSON com os seguintes campos: modelo, saída, fontes, tempo_estimado, pontos_fortes, pontos_fracos. Observação: utilize o modo Best quando apropriado para selecionar automaticamente o melhor modelo com base no histórico de desempenho. Este prompt aproveita recursos da plataforma Perplexity Pro, como navegação web com citações, upload de arquivos, Pro-level queries e acesso a várias IAs em um único painel.

Como Usar este Prompt

1

Clique no botão "Copiar Prompt" para copiar o conteúdo completo.

2

Abra sua ferramenta de IA de preferência (Perplexity e etc.).

3

Cole o prompt e substitua as variáveis (se houver) com suas informações.

Compartilhe

Gostou deste prompt? Ajude outras pessoas a encontrá-lo!