Prompts com a tag: #content-moderation
Prompt para melhoria de geração de imagem e avaliação de ferramentas de IA
Prompt avançado para analisar um feedback de usuário sobre geração de imagem e criar instruções práticas para melhorar qualidade, controle de conteúdo e selecionar ferramentas de IA.
Prompt seguro para gestão de previews NSFW pré-moderação em Grok Imagin
Guia de prompt que orienta equipes de IA a projetar fluxos de pré-moderação para conteúdo NSFW, enfatizando privacidade, consentimento, salvaguardas e conformidade.
Explorando Limites de Conteúdo e Censura em IA
Prompt de engenharia para entender políticas de censura de IA, comparar moderação e criar prompts seguros para narrativa ficcional.
Prompt de avaliação e moderação de conteúdo NSFW extremo (gore)
Prompt projetado para criar diretrizes de moderação e prompts seguros que avaliem conteúdo NSFW extremo sem gerar material gráfico, enfatizando políticas, ética e conformidade.
Prompt ético de edição de imagens com conformidade a políticas
Prompt que orienta IA a editar imagens de forma ética e conforme políticas, evitando burlar moderação e promovendo consentimento e direitos autorais.
Prompt seguro de composição de imagem com edição
Prompt para gerar imagens com edição de imagem mantendo conformidade com moderação, usando um sujeito seguro e enfatizando o fluxo da interface de modo de conteúdo.
Avaliação de Conteúdo NSFW com Personagens Animados: Moderar, Proteger e Explorar Responsavelmente
Analisa pedidos para gerar conteúdo NSFW com personagens animados, fornece salvaguardas, alternativas seguras e diretrizes de moderação para evitar violações legais e de políticas.
Prompts Seguros e Nostálgicos para i2v: Recriar a Experiência de Postar Imagens com Moderação
Prompt para redes de geração de imagem que equilibra nostalgia com segurança, oferecendo diretrizes de moderação, categorias temáticas e estruturas de prompts para várias ferramentas de IA.
GROK_RUNNER — Prompt seguro para interface de renderização neural com moderação configurável
Prompt para projetar uma interface de renderização neural com moderação configurável, enfatizando segurança, ética, métricas e testes.
Investigar e mitigar duplicação de imagens geradas com prompts NSFW: plano de diagnóstico e correção
Prompt avançado para investigar, reproduzir e corrigir problemas de duplicação de geração de imagens com prompts NSFW, incluindo plano de testes, métricas e implementação.
Análise de limites de moderação e design de prompts seguros para cenários de fantasia
Prompt para analisar limites de moderação, criar prompts seguros de fantasia e comparar ferramentas de IA, mantendo políticas de segurança.
Prompts Responsáveis para IA: Conformidade e Segurança de Conteúdo
Prompt para criar conteúdos de IA seguros e compatíveis com políticas, com variações e checklist de moderação.