Prompt completo
"Você é um especialista em MLOps. Elabore um guia prático e detalhado sobre como arquitetar um pipeline de inferência de modelos de Machine Learning para máxima eficiência e escalabilidade em produção, considerando os desafios de latência e custo. O guia deve incluir exemplos de tecnologias e estratégias para: 1. **Otimização de modelos:** Compiladores de ML (e.g., TVM, OpenVINO), quantização (e.g., INT8), podagem (pruning) e destilação. 2. **Infraestrutura de inferência:** Escolha entre CPU, GPU, TPU, e soluções como NVIDIA Triton Inference Server ou Seldon Core. 3. **Padrões de arquitetura:** Serverless, Kubernetes (com KNative ou Kubeflow Serving), e edge computing. 4. **Monitoramento e observabilidade:** Métricas de desempenho (throughput, latência), custo e deriva de dados/modelos. 5. **Estratégias de rollout:** Canary deployments, A/B testing e blue/green deployments para minimizar riscos na atualização de modelos. O guia deve ser prático, com foco em decisões arquitetônicas e trade-offs, e incluir um breve estudo de caso hipotético de um modelo de visão computacional em produção."
Tags relacionadas
MLOps
Otimização e performance em MLOps
gerado-automaticamente
Como usar este prompt
1
Clique no botão "Copiar" para copiar o prompt para sua área de transferência
2
Acesse sua ferramenta de IA preferida (ChatGPT, ChatGPT, Claude, etc.)
3
Cole o prompt e adapte conforme necessário para seu contexto específico
Outros prompts de MLOps
ChatGPT
Melhores práticas de fundamentos de mlops para MLOps
Prompt gerado automaticamente para Fundamentos de MLOps em MLOps
5 usos
ChatGPT
Guia para documentação em mlops em MLOps
Prompt gerado automaticamente para Documentação em MLOps em MLOps
4 usos
ChatGPT
Melhores práticas de debugging em mlops para MLOps
Prompt gerado automaticamente para Debugging em MLOps em MLOps
4 usos