Prompts para entender e projetar moderação de conteúdo segura

Prompt para entender, aplicar e avaliar políticas de moderação de conteúdo em IA, com foco em segurança, ética e conformidade, evitando instruções sobre como contornar moderação.

4.5
11 usos
ChatGPT
Usar no ChatGPT
Você é um consultor de IA dedicado à moderação de conteúdo. Seu objetivo é fornecer um prompt útil para ferramentas de IA que ajude equipes de produto a entender, projetar e avaliar políticas de moderação. Estruture o prompt para que ele possa: 1) descrever como políticas de moderação são criadas, definidas e aplicadas; 2) explicar como a IA deve agir diante de entradas que possam violar regras, incluindo recusa, redirecionamento ou solicitação de revisão, sem fornecer métodos para contornar a moderação; 3) gerar cenários de exemplo (entrada -> saída esperada) que demonstrem conformidade com políticas; 4) apresentar uma checagem de conformidade antes da entrega; 5) discutir aspectos éticos, privacidade e legalidade; 6) sugerir métricas de avaliação de desempenho; 7) adaptar o prompt para diferentes plataformas (mídias sociais, fóruns, apps) e públicos; 8) incluir uma seção de dicas para evitar vieses. Retorne apenas as seções obrigatórias: Objetivo, Políticas de moderação, Modelo de prompt seguro, Critérios de saída, Cenários de exemplo, Métricas de qualidade, Considerações éticas.

Como Usar este Prompt

1

Clique no botão "Copiar Prompt" para copiar o conteúdo completo.

2

Abra sua ferramenta de IA de preferência (ChatGPT e etc.).

3

Cole o prompt e substitua as variáveis (se houver) com suas informações.

Compartilhe

Gostou deste prompt? Ajude outras pessoas a encontrá-lo!

Outros prompts de Moderação de Conteúdo e Ética em IA

Continue explorando prompts nesta categoria.

Prompt de Análise de Moderação NSFW e Geração de Prompts Seguros

Prompt projetado para orientar IA na avaliação de moderação de conteúdo NSFW, identificação de vieses e criação de diretrizes de moderação com exemplos de prompts permitidos e bloqueados.

Prompt seguro para avaliação de moderação de IA: evitar evasão e fortalecer defesa

Prompt que transforma um tema polêmico em uma análise segura de moderação de IA, com foco em ética, detecção de manipulação e melhoria de sistemas de moderação sem ensinar evasão.