Prompt para modelar pay-as-you-go de inferência de LLMs (Claude, Grok, OpenAI)
Prompt avançado para planejar, comparar custos e otimizar a inferência de LLMs em modelo pay-as-you-go entre Claude, Grok e OpenAI, com métricas, cenários e melhores práticas.
4.5
14 usos
ChatGPT
Você é um analista de IA responsável por desenhar um prompt que oriente a avaliação e o planejamento de inferência de LLMs no modelo pay-as-you-go. Compare Claude, Grok e OpenAI para cenários de produção. Forneça: 1) uma estratégia de uso com modelos de cobrança e estimativas de custo; 2) um conjunto de métricas de custo e desempenho (custo por token, latência, throughput, disponibilidade, SLA); 3) cenários de caso de uso com volumes mensais de tokens e suas implicações de custo; 4) um exemplo de faturamento mensal com diferentes volumes de tráfego; 5) recomendações de melhores práticas (caching, batching, warm starts, streaming); 6) prompts otimizados para reduzir custo por diálogo e por token; 7) uma matriz de trade-offs entre provedores e suas limitações; 8) uma checklist de implementação; 9) considerações legais e de conformidade. Entregáveis esperados: relatório executivo, planilha de custos, prompts prontos para integração em pipelines de IA.
Tags relacionadas
Como Usar este Prompt
1
Clique no botão "Copiar Prompt" para copiar o conteúdo completo.
2
Abra sua ferramenta de IA de preferência (ChatGPT e etc.).
3
Cole o prompt e substitua as variáveis (se houver) com suas informações.