Prompts com a tag: #benchmarking
Prompt para Avaliação de Agentes de IA em Produção com Loop de Melhoria
Prompt que orienta a criar um framework de avaliação de agentes de IA pronto para produção, com loop de avaliação, conjunto enxuto de testes, métricas e arquitetura baseada em grafos.
Prompt de avaliação multi-modelo para Omny Chat
Prompt que orienta a gerar saídas padronizadas de até 4 modelos para comparação, incluindo resposta direta, raciocínio de alto nível, tom, fontes e confiabilidade, com formato JSON para fácil comparação.
Framework de Competição: Prompts como Sistemas Vivos
Prompt que orienta a IA a projetar um framework completo para avaliar prompts como sistemas vivos, incluindo objetivos, regras, métricas, casos de teste e entregáveis, com uma rubrica de avaliação detalhada.
Prompt de diagnóstico de latência do Grok Voice no iOS com benchmarking vs ChatGPT e Gemini
Prompt para analisar e diagnosticar latência do Grok Voice no iOS, com comparação a concorrentes, métricas, planos de melhoria e templates de reporte.
Prompt de Design de Benchmark de Criatividade IA com Animações Curtas (5s e 3s)
Prompt para criar e estruturar benchmarks de criatividade IA com animações curtas, gerando uma saída JSON padronizada para avaliação entre modelos.
Prompt para otimizar geração de vídeo de modelo mantendo a carga do servidor sob controle
Prompt robusto para explorar estratégias de otimização de geração de vídeo em ML, com foco em aumentar a duração dos clipes sem aumentar desproporcionalmente a carga do servidor, incluindo plano de experimentação e parâmetros de configuração.
Guia Prático: 5 Hacks Inusitados para Maximizar o ChatGPT
Gera um guia prático de hacks de prompt com exemplos, para maximizar saídas do ChatGPT através de técnicas como Prompt Stacking, Myth Buster, Refinamento Iterativo, prompts baseados em papéis e benchmarking.
Prompt de Benchmarking de Modelos IA: DeepSeek v3.2 no Cortex-AGI
Prompt para analisar desempenho e custo de dois modelos DeepSeek no Cortex-AGI, gerando cálculo de custo por ponto, comparação, cenários de uso e uma matriz de decisão.
Analisar e Padronizar Moderação entre Mobile e Desktop
Prompt para analisar disparidades de moderação entre plataformas móveis e desktop, propondo um protocolo de testes e recomendações de padronização.
Prompt de Avaliação da Confiabilidade de IA em Codificação e Validação de Testes
Prompt que guia a IA a avaliar confiabilidade de assistentes de IA em codificação e testes, com métricas, protocolo reprodutível e planos de melhoria.
Prompt de Anotação de Vídeos para Benchmarking de IA
Prompt para gerar anotações detalhadas de clipes de vídeo com saída padronizada em JSON para benchmarking de IA.
Prompt de Análise de Benchmarks Gemini 3 Pro Preview
Prompt avançado para extrair insights, comparar desempenho entre idiomas, avaliar latência vs. acurácia e sugerir melhorias a partir de benchmarks do Gemini 3 Pro Preview.