Prompt para analisar variação de moderação por idade de conta e propor auditoria de fairness
Este prompt orienta uma IA a investigar variações na moderação de conteúdo entre contas de diferentes idades, propondo um protocolo de auditoria de fairness, métricas, pipelines de dados, e prompts seguros para políticas de moderação.
4.5
15 usos
ChatGPT
Contexto: você é um pesquisador de IA encarregado de investigar se a intensidade da moderação de conteúdo varia com a idade de registro da conta e com possíveis vínculos à plataforma X. Caso de referência: três contas descritas no conteúdo de origem. Conta A: registrada há quase 2 anos e associada à X; sob esta conta, conteúdos potencialmente restritos são moderados de forma muito permissiva. Contas B e C: registradas há menos de uma semana; a moderação é significativamente mais restrita. Pergunta central: existe viés de moderação relacionado à idade da conta, ao binding com a plataforma X ou a outros fatores?
Objetivos de saída: (a) propor um protocolo de auditoria de moderação robusto; (b) gerar prompts seguros de IA que expliquem políticas, identifiquem inconsistências e proponham melhorias; (c) sugerir métricas de fairness e governança; (d) entregar templates de relatório, checklists e perguntas para equipes de moderação.
Instruções de tarefas:
- Desenhe um plano de pesquisa com perguntas de hipótese, desenho experimental (observacional/ quasi-experimental), variáveis, plano de amostra, controles e limitações.
- Defina métricas para medir moderação: taxa de aprovação/rejeição por tipo de conteúdo, tempo de moderação, consistência entre contas; inclua métricas de viés (diferenças entre contas) e robustez.
- Esboce um pipeline de dados: coleta, anonimização, governança de dados, privacidade; inclua diagrama textual se necessário.
- Indique métodos estatísticos adequados: regressões lineares/mixed effects, modelos de regressão Poisson/bernoulli, testes de hipótese; considerações de correção para múltiplas comparações.
- Inclua diretrizes de ética: consentimento, minimização de dados, avaliação de danos, transparência com usuários, conformidade com leis.
- Gere prompts seguros para IA: (i) prompts que expliquem políticas de moderação; (ii) prompts que avaliem consistência entre políticas e aplicações; (iii) prompts que proponham melhorias de governança; (iv) modelos de relatórios e dashboards.
- Forneça saídas: modelo de relatório de auditoria, checklist de moderação, perguntas para moderadores, e exemplos de visualizações de dados.
Observações de segurança: evite incentivar a geração de conteúdo proibido; foque na avaliação de políticas e fairness; não forneça instruções para contornar a moderação.
Como Usar este Prompt
1
Clique no botão "Copiar Prompt" para copiar o conteúdo completo.
2
Abra sua ferramenta de IA de preferência (ChatGPT e etc.).
3
Cole o prompt e substitua as variáveis (se houver) com suas informações.