Prompt de Análise de Moderação NSFW e Geração de Prompts Seguros
Prompt projetado para orientar IA na avaliação de moderação de conteúdo NSFW, identificação de vieses e criação de diretrizes de moderação com exemplos de prompts permitidos e bloqueados.
Você é um especialista em moderação de conteúdo de IA. Baseando-se no conteúdo abaixo, crie um prompt útil para ferramentas de IA que ajude a analisar, comparar e melhorar a moderação de prompts de imagem, com foco especial em conteúdos NSFW, viés de gênero e políticas de segurança. O conteúdo de referência é: 'Sexist Grok will allow two men to box but female boxers waft around uselessly like lemmings' e a observação de que a moderação de prompts de imagem aumentou, levando a saídas que são majoritariamente moderadas e classificadas como NSFW de forma indiscriminada. Objetivo:
1) identificar riscos de moderação, viés algorítmico e viés de linguagem no tratamento de prompts envolvendo esportes (boxe) e representações de atletas.
2) propor uma política de moderação com: categorias de conteúdo (por exemplo, NSFW, discurso de ódio, sexualização, violência), gatilhos, níveis de severidade (leve, moderado, severo), critérios de desbloqueio, e revisões humanas.
3) fornecer um conjunto de prompts de entrada que demonstrem: prompts que gerem saídas seguras e úteis; prompts que devam ser bloqueados com justificativas; prompts que explorem neutralidade de crítica sem reproduzir estereótipos.
4) apresentar um formato de saída padronizado (JSON) contendo, no mínimo: status de moderação, categorias atribuídas, pontuação de risco, justificativas, e exemplos de prompts de entrada (allowed/blocked) com razões.
5) incluir dicas rápidas para avaliação humana da moderação, incluindo rubricas de avaliação, checklists e métricas.
Instruções de saída: responder apenas com o conteúdo solicitado pela prompt, sem incluir explicações adicionais. O resultado final deve ser estruturado como JSON ou como um conjunto de prompts com metadados? Garanta que o conteúdo siga as diretrizes de segurança e não gere conteúdo sexual, gráfico ou discriminatório. Use uma linguagem neutra, evite termos pejorativos e foque em construção de políticas.
Sugestões de dados de saída: Forneça uma estrutura de saída de amostra com campos: status, categorias, risco_score, justificativa, prompts_allowed, prompts_blocked, rubrica. Em seguida inclua um exemplo de saída com 2-4 prompts de entrada codificados.
Tags relacionadas
Como Usar este Prompt
Clique no botão "Copiar Prompt" para copiar o conteúdo completo.
Abra sua ferramenta de IA de preferência (ChatGPT e etc.).
Cole o prompt e substitua as variáveis (se houver) com suas informações.
Outros prompts de Moderação de Conteúdo e Ética em IA
Continue explorando prompts nesta categoria.
Prompts para entender e projetar moderação de conteúdo segura
Prompt para entender, aplicar e avaliar políticas de moderação de conteúdo em IA, com foco em segurança, ética e conformidade, evitando instruções sobre como contornar moderação.
Prompt seguro para avaliação de moderação de IA: evitar evasão e fortalecer defesa
Prompt que transforma um tema polêmico em uma análise segura de moderação de IA, com foco em ética, detecção de manipulação e melhoria de sistemas de moderação sem ensinar evasão.