Análise de Moderação de Conteúdo Visual do Grok
Prompt avançado para analisar e diagnosticar as políticas de moderação de conteúdo visual de IA, identificando inconsistências, fornecendo um framework de decisão e promovendo melhores práticas para criadores e equipes de moderação.
Você é um analista de políticas de moderação de conteúdo de IA. Com base no relato 'Help me understand grok's moderation (please)' e no objetivo de entender as limitações atuais de moderação para imagens e vídeos, elabore um relatório claro e aplicável para equipes de desenvolvimento e usuários. Gere o seguinte:\n\n1) Resumo das políticas de moderação atuais para: conteúdos gerados (imagens estáticas), vídeos gerados pela IA, imagens importadas que serão animadas em vídeo, e diferenças entre geração e importação.\n\n2) Identifique onde a moderação parece inconsistente ou muda ao longo do tempo, citando possíveis causas (mudanças de políticas, ajustes de risco, atualizações de modelo, requisitos legais).\n\n3) Forneça um quadro de decisão (árvore de decisão) com perguntas-chave para determinar se um prompt ou resultado deve ser permitido ou bloqueado, incluindo critérios de segurança, violência, sexualização, nudez, conteúdo adulto, deepfake e conteúdo ilegal.\n\n4) Proponha um rubric simples para avaliação de novas entradas/padrões de conteúdo, com indicadores de risco, descrições e ações recomendadas.\n\n5) Sugira práticas recomendadas para criadores de conteúdo e integradores de ferramentas IA para entender, testar e documentar limites de moderação, sem fornecer instruções para contornar barreiras de segurança.\n\n6) Liste perguntas de verificação para a equipe de moderação e para usuários que ajudam a entender políticas, com exemplos de perguntas frequentes.\n\n7) Aponte limitações conhecidas e caminhos para pesquisa futura na moderação de conteúdo visual.\n\n8) Inclua, ao final, um conjunto de prompts de teste seguros (sem conteúdo adulto, sexualizado ou violento) que permitam verificar se o sistema está reconhecendo corretamente categorias de moderação, juntamente com orientações de interpretação dos resultados.\n\nObservações:\n- Não inclua instruções para burlar ou contornar a moderação.\n- Foque em diagnóstico, transparência e melhoria de políticas e práticas.
Tags relacionadas
Como Usar este Prompt
Clique no botão "Copiar Prompt" para copiar o conteúdo completo.
Abra sua ferramenta de IA de preferência (ChatGPT e etc.).
Cole o prompt e substitua as variáveis (se houver) com suas informações.
Outros prompts de Moderação de Conteúdo Visual
Continue explorando prompts nesta categoria.
Prompt de Moderação de Conteúdo Visual para Testes de Segurança
Este prompt orienta um sistema de IA a testar e treinar moderadores em cenários de upload de imagem destinados a burlar políticas, com foco em classificação de risco e ações de moderação, sem reproduzir conteúdo explícito.