Investigação de falha de moderação de imagens na Grok: inconsistências entre iOS e Web
Prompt para investigar e diagnosticar uma falha de moderação de imagens na Grok, com foco em discrepâncias entre iOS e Web, incluindo reprodução, coleta de evidências, hipóteses, mitigação e entrega de relatório.
4.5
17 usos
ChatGPT
Contexto: um relato descreve que a Grok exclui imagens após uma moderação falha, especialmente ao tentar gerar um vídeo a partir de imagens no iOS. O mesmo comportamento não foi observado no Web no dia anterior. Objetivo: diagnosticar a raiz do problema, entender as diferenças entre os pipelines de moderação em iOS e Web e propor soluções com impacto mínimo na experiência do usuário. Abaixo está o prompt estruturado para orientar uma análise profunda.
Instruções para o AI:
1) Reproduzir e observar:
- Reproduzir o fluxo completo a partir de um conjunto de imagens de exemplo em iOS (versão do app, versão do iOS, dispositivo, condições de rede) e comparar com o fluxo Web correspondente.
- Verificar se as imagens são enviadas com metadados/headers diferentes entre iOS e Web.
- Confirmar se as imagens são marcadas como 'moderação falhou' ou se são excluídas por outro motivo (policy violation, erro de sistema, timeout, etc.).
- Anotar o estado do pipeline após a moderação (pending, flagged, deleted) e o tempo entre envio e resposta.
2) Coletar evidências e logs:
- Solicitar IDs de conteúdo, hashes de imagem, timestamps, versões de API, IDs de sessão, tokens de autenticação (em ambiente seguro/anônimo).
- Coletar logs de moderação, payloads de requisição/resposta, e detalhes de erros (códigos, mensagens, stack traces) do iOS e Web.
- Registrar configurações de limiar/moderação (políticas ativas, regras, listas negras) para cada canal.
3) Análise de causas potenciais (hipóteses):
- Inconsistência entre pipelines: diferenças de regras ou de parâmetros entre iOS e Web.
- Conteúdo ou metadados específicos que acionam filtros com comportamento diferente entre plataformas.
- Condições de tempo limite, race conditions ou falhas intermitentes na moderação.
- Problemas de formato/encapsulamento de imagem (compressão, streaming, chunking) que afetam a moderação.
- Problemas de cache ou limpeza automática de dados entre etapas do fluxo.
4) Diagnóstico e evidências:
- Liste hipóteses com evidências mínimas necessárias para confirmar/refutar cada uma.
- Compare exemplos reproduzíveis entre iOS e Web e destaque divergências nos payloads, headers e respostas.
5) Mitigações e recomendações:
- Proponha ações de curto prazo (fixes hotfix, logs mais detalhados, masking de dados sensíveis) e de médio prazo (unificação de regras, melhoria de idempotência, retries com backoff, observabilidade).
- Sugira mudanças no UX para evitar exclusão abrupta (ex.: manter itens em nó de moderacao pendente em vez de exclusão imediata, mensagens de status claras ao usuário).
- Defina métricas de sucesso (tempo de moderação, taxa de false positives/negatives entre plataformas, taxa de retrabalho).
6) Entrega solicitada:
- Forneça um relatório estruturado com: Resumo executivo, Metodologia, Evidências, Hipóteses, Reproduções, Recomendações, Perguntas pendentes, e um Template de coleta de dados para replicação futura.
7) Considerações de segurança e privacidade:
- Garanta anonimização de dados sensíveis e conformidade com políticas de privacidade.
Formato de entrega desejado:
- Estruture a saída de forma clara, com seções distintas, e inclua um resumo em bullets no topo. Se possível, apresente também uma lista objetiva de perguntas para o time de produto e de engenharia.
Observação final: mantenha o foco em diagnóstico de falha, aprimoramento de pipelines e melhoria de estabilidade entre plataformas, evitando qualquer tentativa de burlar/modificar políticas de moderação.
Tags relacionadas
Como Usar este Prompt
1
Clique no botão "Copiar Prompt" para copiar o conteúdo completo.
2
Abra sua ferramenta de IA de preferência (ChatGPT e etc.).
3
Cole o prompt e substitua as variáveis (se houver) com suas informações.