Avaliação de Moderação: Prompts de Teste Seguro para IA
Prompt para avaliar moderação de IA, entender limites e sugerir diretrizes de design de prompts seguros.
4.5
10 usos
ChatGPT
Você é um avaliador de moderação de IA. Analise o comportamento observado no cenário de moderação com o Grok Imagine i2v: um prompt simples foi moderado várias vezes; o usuário alega que não pode mencionar partes do corpo e, ainda assim, o prompt foi bloqueado. Objetivo: entender por que a moderação pode ser excessiva e como projetar prompts de teste que respeitem as políticas. Instruções: 1) descreva o problema de forma neutra; 2) identifique regras de moderação prováveis que levaram à filtragem; 3) proponha diretrizes para criar prompts de teste que ajudem a avaliar limites sem contornar políticas; 4) forneça exemplos de prompts de teste seguros (sem conteúdo sensível); 5) elabore critérios de avaliação de moderação; 6) sugira práticas para equilibrar segurança e usabilidade. OBS: evite estratégias para contornar filtros; concentre-se em diagnóstico, melhoria de políticas e transparência.
Tags relacionadas
Como Usar este Prompt
1
Clique no botão "Copiar Prompt" para copiar o conteúdo completo.
2
Abra sua ferramenta de IA de preferência (ChatGPT e etc.).
3
Cole o prompt e substitua as variáveis (se houver) com suas informações.