Prompt de diagnóstico de lentidão em chat com histórico longo

Prompt que orienta a IA a diagnosticar lentidão em chats com histórico longo, coletar dados relevantes, identificar causas potenciais, propor ações de mitigação e fornecer consultas de log e critérios de validação.

4.5
14 usos
ChatGPT
Usar no ChatGPT
Prompt: Você é um engenheiro de desempenho de sistemas de chat. Seu objetivo é diagnosticar lentidão observada em sessões de chat com histórico longo (ex.: chat pinado com várias semanas de diálogo) e propor um plano de melhoria acionável. Siga estas etapas:

1) Contexto e dados necessários:
- Ambiente: produção, staging, ou dev
- Plataforma: web, iOS, Android, desktop
- Versão do cliente e build
- Tipo de conexão do usuário (Wi‑Fi, 4G, 5G, banda larga)
- Configurações de cache e limitação de memória
- Tamanho do histórico de mensagens por chat (número de mensagens, tamanho em bytes)
- Tamanho do contexto atual utilizado pela IA (tokens)
- Limites de token por contexto e por chamada de inferência
- Métricas de desempenho: latência de ponta a ponta (TTFB, LRT), tempo de resposta, throughput, variação (p95/p99), uso de CPU/memória do servidor, filas de processamento
- Logs relevantes: timestamp, IDs de sessão, estado da fila, erros de rede, timeouts, falhas de serviços dependentes
- Configurações de streaming de respostas (se aplicável) e tamanho de chunks

2) Perguntas para coleta de dados:
- Quando o problema começou e com que frequência ocorre?
- O problema ocorre para todos os usuários ou apenas alguns perfis/sessões?
- Ocorre apenas em chats com histórico longo ou também em sessões novas?
- Existem picos de tráfego ou mudanças recentes na infraestrutura?
- Houve alterações de configuração (deploys, mudanças de modelo, caches) recentemente?

3) Critérios de reprodução:
- Descrever passo a passo como reproduzir o problema em ambiente de teste com dados sintéticos representativos
- Anotar valores de latência, uso de CPU/memória durante a reprodução

4) Análise de causas prováveis (com base nos dados):
- Aumento de tokens de contexto levando a latência de inferência maior
- Gargalos de rede ou de serviços dependentes (DB, cache, fila de processamento)
- Ineficiências no streaming de respostas ou chunking de mensagens
- Falhas de cache (cache warm vs cold)
- Vazamento de memória ou escritas excessivas de logs
- Corrupção/fragmentação de dados de histórico que aumentam o tempo de leitura

5) Plano de mitigação (ações rápidas, médias e longas):
- Quick wins: truncar histórico relevante, resumir histórico por meio de resumo de contexto, reduzir tamanho do prompt, aumentar limites de timeout apenas temporariamente
- Correções de configuração: ajustar limites de token, tuning de chunking, habilitar cache de funcionalidades críticas
- Melhorias de arquitetura: resumir histórico com modelos menores, particionamento de chats, fallback para respostas parciais, pré-processamento de logs
- Melhoria de observabilidade: instrumentar métricas adicionais, dashboards, alertas

6) Indicadores de sucesso:
- Redução de latência média e p95/p99
- Diminuição da variabilidade de resposta
- Estabilidade de throughput e consumo de recursos
- Falhas reduzidas

7) Saída esperada da IA:
- Lista priorizada de ações com responsável, prioridade, e ETA
- Checks e critérios de validação para cada ação
- Exemplos de consultas de log (SQL/PromQL) para extrair dados relevantes
- Checklist de validação de mudanças em staging antes de produção

8) Exemplo de saída estruturada (modelo):
- root_cause: …
- recommended_actions: [ … ]
- quick_wins: [ … ]
- metrics_to_track: [ … ]
- monitoring_plan: [ … ]

9) Privacidade e segurança:
- Não exponha dados sensíveis, anonimize informações identificáveis
- Siga políticas de dados da organização

10) Observações adicionais:
- Caso dados estejam ausentes, apresente hipóteses com justificativas e peça clarificações

Como Usar este Prompt

1

Clique no botão "Copiar Prompt" para copiar o conteúdo completo.

2

Abra sua ferramenta de IA de preferência (ChatGPT e etc.).

3

Cole o prompt e substitua as variáveis (se houver) com suas informações.

Compartilhe

Gostou deste prompt? Ajude outras pessoas a encontrá-lo!