Prompts com a tag: #NSFW
Prompt de Análise, Advocacia e Plano de Ação para Moderação NSFW da Grok Devs
Prompt para transformar um relato de experiência do usuário sobre moderação NSFW em um conjunto de ações construtivas, planos, modelos de comunicação e documentação para advocacy junto aos Grok Devs.
Prompt seguro para arte NSFW: iterações criativas com moderação
Este prompt orienta a IA a produzir variações de prompts de geração de arte que lidam com temas sensíveis de maneira segura, enfatizando qualidade de composição, estilo e moderação.
Prompt de Avaliação de Moderação: Conversas sugestivas vs. imagens NSFW
Prompt de avaliação de moderação que ajuda a desenhar diretrizes, prompts seguros e métricas para lidar com cenários envolvendo linguagem sugestiva versus conteúdo NSFW, sem gerar ou incentivar conteúdo explícito.
Prompt de Avaliação de Apps NSFW de Geração de Vídeo a partir de Imagens (iOS/Android)
Prompt para avaliar e comparar apps móveis que geram vídeo a partir de imagens com conteúdo NSFW, com foco em segurança, privacidade, conformidade e comparação com Grok Imagine.
Prompt de avaliação ética de geradores de imagens IA para conteúdo NSFW
Prompt que orienta IA a comparar e avaliar geradores de imagens, enfatizando ética, consentimento, segurança e qualidade, com recomendações práticas.
Prompt para avaliação de políticas NSFW em IA de geração de imagens
Prompt que orienta a IA a analisar, propor diretrizes de moderação NSFW para geração de imagens, com exemplos, métricas e testes.
Prompt de avaliação de UX entre versões de IA (5.1 vs 4.x) com foco em segurança
Prompt para comparar UX entre versões de IA, avaliando comportamento, memória, moderação e adequação de ferramenta, com entrega de metadados sobre a melhor ferramenta, rating, dificuldade, e tópicos.
Prompt para Avaliação de Políticas de Conteúdo NSFW em IA
Guia estruturado para avaliar, desenhar e testar políticas de conteúdo NSFW em IA, enfatizando governança, salvaguardas, classificação, implementação e conformidade sem gerar conteúdo explícito.
Prompt de análise crítica sobre moderação de conteúdo NSFW e futuras variações de IA
Prompt para discutir e avaliar criticamente a ideia de modos de conteúdo NSFW em IA, com foco em moderação, ética, governança e métodos de avaliação.
Prompt para análise de moderação NSFW em IA Multimodal: blur, filtragem e políticas
Prompt que orienta a IA a comparar, avaliar e desenhar políticas de moderação NSFW entre geração de imagens e de vídeos, propondo frameworks, métricas e diretrizes.
Censorship Logic: avaliação ética e robustez de filtros em modelos de IA
Prompt para analisar, testar e aprimorar mecanismos de moderação de conteúdo em IA, com foco em NSFW, enfatizando ética, avaliação de robustez e políticas de moderação (sem instruções para burlar filtros).