Prompts com a tag: #AI-evaluation
Desafio de Atribuição de Saída entre Sonnet 4.5/4.6 e Opus 4.5/4.6
Prompt para identificar qual saída (A-D) foi gerada por qual modelo entre Sonnet 4.5/4.6 e Opus 4.5/4.6, fornecendo justificativas e níveis de confiança.
Prompt de avaliação crítica de lançamentos de IA: Grok 4.2 vs modelo chinês gratuito
Prompt para analisar criticamente o desempenho de um lançamento de IA (Grok 4.2) vs um modelo concorrente gratuito, gerando uma suíte de prompts, métricas, relatório estruturado e recomendações de uso.
Prompt de Avaliação de Consistência entre Versões de IA (4.x vs 5.x) com Enigma Lógico
Prompt para testar e comparar o desempenho de diferentes versões de modelos de IA em prompts de lógica, identificando falhas recorrentes e propondo melhorias de prompts para maior robustez e consistência.
Prompt de avaliação crítica de saídas de IA para confiabilidade e utilidade
Prompt para orientar uma IA a avaliar a utilidade, precisão e qualidade de uma saída de sistema, com checagem de fatos, avaliação de fontes e recomendações de melhoria.
Prompt de Avaliação da Honestidade e da Explicação de Erros em IA
Prompt para treinar IA a lidar com erros, testando honestidade, transparência e capacidade de explicação, e sugerindo a ferramenta mais adequada.
Contexto como Porta de Qualidade para Saídas de IA
Prompt para avaliar se uma saída de IA realmente se sustenta no contexto específico, indo além de uma avaliação genérica de qualidade.
Prompt de análise crítica de Grok e melhoria de respostas de IA
Prompt para analisar criticamente a resposta de Grok, propor melhorias, criar prompts de avaliação e estabelecer critérios de avaliação robustos, baseado em um contexto de críticas públicas a uma IA.