Prompts com a tag: #content-moderation
Prompt ético de edição de imagens com conformidade a políticas
Prompt que orienta IA a editar imagens de forma ética e conforme políticas, evitando burlar moderação e promovendo consentimento e direitos autorais.
Prompt seguro de composição de imagem com edição
Prompt para gerar imagens com edição de imagem mantendo conformidade com moderação, usando um sujeito seguro e enfatizando o fluxo da interface de modo de conteúdo.
Avaliação de Conteúdo NSFW com Personagens Animados: Moderar, Proteger e Explorar Responsavelmente
Analisa pedidos para gerar conteúdo NSFW com personagens animados, fornece salvaguardas, alternativas seguras e diretrizes de moderação para evitar violações legais e de políticas.
Prompts Seguros e Nostálgicos para i2v: Recriar a Experiência de Postar Imagens com Moderação
Prompt para redes de geração de imagem que equilibra nostalgia com segurança, oferecendo diretrizes de moderação, categorias temáticas e estruturas de prompts para várias ferramentas de IA.
GROK_RUNNER — Prompt seguro para interface de renderização neural com moderação configurável
Prompt para projetar uma interface de renderização neural com moderação configurável, enfatizando segurança, ética, métricas e testes.
Investigar e mitigar duplicação de imagens geradas com prompts NSFW: plano de diagnóstico e correção
Prompt avançado para investigar, reproduzir e corrigir problemas de duplicação de geração de imagens com prompts NSFW, incluindo plano de testes, métricas e implementação.
Análise de limites de moderação e design de prompts seguros para cenários de fantasia
Prompt para analisar limites de moderação, criar prompts seguros de fantasia e comparar ferramentas de IA, mantendo políticas de segurança.
Prompts Responsáveis para IA: Conformidade e Segurança de Conteúdo
Prompt para criar conteúdos de IA seguros e compatíveis com políticas, com variações e checklist de moderação.
Moderação de Conteúdo 2D Ficcional: exceções e ética
Este prompt orienta uma IA a avaliar políticas de moderação para conteúdos 2D ficcionais, discutir exceções éticas e criar diretrizes seguras para uso em geração de conteúdo visual, com foco em equilíbrio entre autenticidade artística e proteção do usuário.
Análise Comparativa de Grok para Moderação de Conteúdo
Prompt que orienta a IA a avaliar Grok, comparar com várias ferramentas de IA e fornecer prompts, fluxos de moderação e métricas para moderação de conteúdo.
Prompt de Moderação de Conteúdo Sensível com Geração Segura de Descrição
Prompt que analisa conteúdo sensível, propõe uma versão segura da descrição, gera metadados de moderação e palavras-chave, e fornece um resumo neutro para uso em indexação e políticas.
Prompt de moderação para edições de t2vid: proibição de nudez e governança de conteúdo
Prompt para gerar uma pipeline de moderação, critérios, fluxos e métricas para evitar nudez em t2vid e edições