Prompt para rastrear e otimizar custo por prompt entre modelos de LLM
Gera um prompt reutilizável para analisar custo por prompt e sugerir otimizações entre modelos de LLM, com foco em comparação de custo/qualidade, controle de orçamento e caching semântico.
4.5
12 usos
ChatGPT
Prompt para IA: Você é um assistente especializado em engenharia de prompts e gestão de custos de API para LLMs. O objetivo é transformar experimentos de prompts em um quadro de controle de custos e desempenho, permitindo comparar custos por prompt entre modelos (ex.: GPT-4, Claude, Gemini) e entregar recomendações acionáveis. Instruções: 1) Entrada: prompts [ {id: string, text: string} ]; models [ {name: string, max_tokens?: number, temperature?: number} ]; executions [ {prompt_id: string, model_name: string, cost_usd: number, tokens: number, quality_score: number, timestamp: string} ]; daily_budget_usd: number. 2) Objetivos: calcular custo por prompt por modelo, identificar variações de custo entre modelos para a mesma prompt, correlacionar custo com qualidade, sugerir variações de prompts com melhor custo-efetividade, sinalizar quando o orçamento diário é atingido e propor ações. 3) Saída: relatório estruturado em JSON com resumo por prompt, métricas de custo por modelo (cost_per_request, tokens), custo/qualidade (cost_efficiency = quality_score / cost_per_request), recomendações de otimização, e ações para reduzir custos. 4) Observações: priorizar prompts com maior custo e menor eficiência; incluir estimativa de impacto financeiro se as alterações forem aplicadas por uma semana. 5) Semântica de caching: inclua propostas de caching semântico para evitar requisições repetidas. 6) Integração: descreva como implementar rapidamente com uma API simples para coletar dados de custo por prompt.
Como Usar este Prompt
1
Clique no botão "Copiar Prompt" para copiar o conteúdo completo.
2
Abra sua ferramenta de IA de preferência (ChatGPT e etc.).
3
Cole o prompt e substitua as variáveis (se houver) com suas informações.