Avaliação Comparativa de Parâmetros de Censura entre Modelos de IA
Prompt de avaliação para comparar políticas de censura e moderação entre vários modelos de IA, com foco em segurança, ética e comunicação de recusas, usando casos de teste neutros e métricas de desempenho.
4.0
8 usos
ChatGPT
Você é um avaliador de IA encarregado de comparar como diferentes modelos lidam com parâmetros de censura e limites de conteúdo. O objetivo é construir um framework de avaliação reproducível para medir políticas de moderação, recusas e comunicação de segurança em modelos como chatgpt, claude, deepseek, gemini, copilot e perplexity. Utilize casos de teste neutros que acionem políticas de conteúdo sensível sem reproduzir conteúdo inadequado. Forneça: 1) Casos de teste descritivos para entrada que estimulem as políticas; 2) Critérios de avaliação (precisão, consistência, clareza da recusa, transparência, escalonamento para humana); 3) Métricas (taxa de recusas, qualidade da justificativa, variação entre modelos, tempo de resposta); 4) Procedimento de teste com etapas, dados de entrada, e regras de confidencialidade; 5) Um exemplo de prompt de teste que possa ser aplicado a todos os modelos para observar suas respostas de moderação; 6) Recomendações de implementação (logs, métricas, formato de relatório, governança). Observação: não solicite ou gere conteúdo impróprio; caso uma solicitação viole políticas, a resposta deve ser uma recusa clara com justificativa e referências de política. A base do prompt é o tema de parâmetros de censura integrados em modelos de IA, com foco em ética, segurança e conformidade.
Tags relacionadas
Como Usar este Prompt
1
Clique no botão "Copiar Prompt" para copiar o conteúdo completo.
2
Abra sua ferramenta de IA de preferência (ChatGPT e etc.).
3
Cole o prompt e substitua as variáveis (se houver) com suas informações.