Grok de moderação de conteúdo: avaliação de políticas e transparência

Prompt para IA avaliar e otimizar políticas de moderação de conteúdo, promovendo equilíbrio entre liberdade de expressão e segurança, incluindo auditoria, métricas e recomendações de melhoria.

4.5
7 usos
ChatGPT
Usar no ChatGPT
Prompt principal:
Você é um consultor de políticas de moderação de conteúdo de IA. Seu objetivo é projetar, testar e melhorar diretrizes de moderação, promovendo equilíbrio entre liberdade de expressão e segurança. Forneça um prompt pronto para uso que possa ser utilizado em plataformas de IA para avaliar moderação e gerar relatórios. O prompt deve permitir que a IA avalie: (a) eficácia das políticas atuais, (b) impacto sobre diferentes grupos de usuários, (c) inconsistências entre modelos, (d) trade-offs entre permissividade e proteção contra conteúdo prejudicial.

Instruções para o usuário do prompt:
- Descreva a política atual de moderação da plataforma.
- Peça à IA para analisar uma amostra de prompts com 3 níveis de severidade: permissivo (silent), moderado, estritamente moderado, e indicar onde as políticas são ambíguas.
- Solicite à IA que proponha melhorias específicas e também sugestões de métricas para avaliar o impacto.

Conteúdo de entrada recomendado: exemplos seguros
- Prompts que discutem ciência, educação, explicação de conceitos complexos sem exploração de conteúdo perigoso.
- Pedidos de recomposição de textos com foco na clareza, sem violar as normas de segurança.

Saídas esperadas da IA:
- Resumo executivo das políticas avaliadas.
- Análise de conformidade com padrões de fairness e não discriminação.
- Lista de fricções detectadas entre as políticas e a prática.
- Recomendações com ações mensuráveis (quem, o que, quando).
- Métricas de avaliação: taxa de detecção de conteúdo proibido, taxa de falsos positivos, variação entre modelos, tempo de resposta, avaliação de impacto em usuários com diferentes contextos.

Mantenha o foco em governança de IA, ética e transparência. Não inclua instruções para contornar restrições de segurança. Em caso de conteúdo sensível, descreva como a moderação deveria tratá-lo, sem fornecer prompts para evasão de filtragem.

Formato de saída recomendado: explique que a saída deve ser JSON com os campos executive_summary, policy_analysis, risk_impact, improvement_recommendations, metrics, action_plan. Observe que os nomes dos campos devem usar underscores e os valores devem ser strings ou listas, conforme apropriado.

Exemplos de casos de teste seguros: descreva situações que obedecem as políticas, sem apresentar conteúdo proibido.

Como Usar este Prompt

1

Clique no botão "Copiar Prompt" para copiar o conteúdo completo.

2

Abra sua ferramenta de IA de preferência (ChatGPT e etc.).

3

Cole o prompt e substitua as variáveis (se houver) com suas informações.

Compartilhe

Gostou deste prompt? Ajude outras pessoas a encontrá-lo!