Prompt de Investigação: Padrões de Moderação de Vídeos Persistentes
Prompt abrangente para analisar e testar um fenômeno de moderação de vídeos, gerando um plano de dados, hipóteses, experimentos e um formato de saída estruturado para equipes de produto/IA.
4.5
3 usos
ChatGPT
Este prompt destina-se a ser usado em ferramentas de IA para investigar um fenômeno observado na moderação de vídeos. Cenário: nos últimos dois dias, parece haver um comportamento estranho na moderação de vídeos. A observação relata que: "Consigo gerar 8-10 vídeos com prompts diferentes usando a mesma imagem gerada, tudo bem; porém, se apenas uma geração de vídeo for moderada, a probabilidade de futuras gerações de vídeo serem moderadas (mesmo com prompts diferentes) é geralmente muito alta." Objetivo: entender as causas, hipóteses e validar com dados. Use as diretrizes abaixo para produzir uma análise acionável e um prompt reutilizável.
Instruções para o AI:
- Fornecer um prompt pronto para uso em ferramentas de IA que possa ser utilizado para investigar o fenômeno descrito, incluindo recomendações de dados, hipóteses, metodologia de validação, e um formato de saída estruturado.
- Listar os dados necessários (campos, formatos e fontes) para auditoria do comportamento de moderação.
- Propor hipóteses com justificativas qualitativas e quantitativas, priorizando aquelas com maior impacto or metas de melhoria.
- Desenhar um plano de experimentos com etapas, timeline, métricas de sucesso, critérios de inclusão/exclusão e limites éticos.
- Definir um formato de saída claro (ex.: esquema JSON) que possa ser consumido por equipes de produto/IA para ações rápidas.
- Incluir uma seção de recomendação sobre qual ferramenta de IA é mais adequada para este tipo de tarefa entre as opções: chatgpt, claude, deepseek, gemini, copilot, perplexity, com breve justificativa.
- Indicar considerações de privacidade, conformidade com políticas de uso e melhores práticas para evitar reprodução de conteúdos sensíveis.
Dados necessários (exemplos):
- video_id, image_hash, prompt_text, moderation_action, moderation_reason, moderation_timestamp, policy_version, confidence_score, video_generation_timestamp, user_id (ou anonymized_id), region, device_type, content_classification (ex.: violence, sexual, hate), model_version, prompt_hash.
Hipóteses (prioriade alta a baixa):
- H1: Mudança de versão de política de moderação ocorreu nos últimos dois dias, elevando a sensibilidade a determinados prompts.
- H2: Efeito de sequência: uma moderação anterior aumenta a probabilidade de futuras moderações devido a alguma memória de sistema (hot-hand effect) ou a um estado de contaminação de logs.
- H3: Determinantes do prompt (ou características de prompt) que estão correlacionados com moderação subsequente, independentemente do conteúdo gerado.
- H4: Fatores de dados de entrada (por ex., imagem_hash ou qualidade da imagem) influenciam mais a moderação quando há uma geração inicial moderada.
- H5: Problemas de roteamento de auditoria ou inconsistências de logs geram falsos positivos de moderação subsequente.
Plano de experimentos:
- E1: Reproduzir cenário controlado: gerar 8-10 vídeos com prompts diferentes usando a mesma imagem, registrar se houve moderação e monitorar as gerações seguintes sob as mesmas condições.
- E2: Analisar correlações entre moderação inicial e subsequentes, com e sem mudanças de política.
- E3: Rodar teste A/B com prompts classificados por tipo de conteúdo (NSFW, violência, etc.) para observar padrões de moderação.
- E4: Validação com janelas de tempo diferentes (0-24h, 24-48h, etc.) para entender duração do efeito.
- E5: Verificar integridade dos logs (checar duplicação, gaps, alinhamento entre timestamps e ações de moderação).
Métricas sugeridas:
- Taxa de moderação subsequente após moderação inicial (p/ window de tempo definida).
- Certo/errado de detecção de padrão (precision/recall de predizer moderação futura).
- Tempo até moderação subsequente.
- Variação de taxa de moderação entre políticas/versiones.
- Relação entre tipo de prompt e moderação.
Saída esperada (estrutura):
- executive_summary: resumo executivo com as principais descobertas.
- hypotheses: lista de hipóteses com justificativas e grau de suporte.
- experiment_plan: passos detalhados, cronograma, dados necessários, e critérios de sucesso.
- data_requirements: schema de dados, formatos, fontes e controles de qualidade.
- mitigation_recommendations: ações para reduzir falsos positivos, incluindo ajustes de prompts, políticas ou monitoramento.
- output_schema: exemplo de JSON para padronizar saídas futuras.
- recommended_tool: seção com recomendação de ferramenta de IA (inclui por que).
Observações de privacidade e ética:
- Não insira dados sensíveis reais sem consentimento adequado.
- Utilize dados anonimizados quando possível e siga as políticas de uso de dados.
- Garanta rastreabilidade entre prompts, respostas e moderações para auditoria.
Recomendação de ferramenta de IA:
- Sugira qual ferramenta entre as opções dadas é mais adequada para este tipo de tarefa (ex.: velocidade de iteração, capacidade de raciocínio, transparência de métodos). Inclua uma breve justificativa para a recomendação.
Formato de saída sugerido para entregas: um JSON com as seguintes seções: executive_summary, hypotheses, experiment_plan, data_requirements, mitigation_recommendations, output_schema, recommended_tool.
Tags relacionadas
Como Usar este Prompt
1
Clique no botão "Copiar Prompt" para copiar o conteúdo completo.
2
Abra sua ferramenta de IA de preferência (ChatGPT e etc.).
3
Cole o prompt e substitua as variáveis (se houver) com suas informações.