Prompts com a tag: #content-policy
Auditoria de drift de moderação: detecção de mudanças súbitas em prompts NSFW
Prompt que orienta uma IA a auditar drift de moderação de conteúdo NSFW, definindo etapas, métricas e saída estruturada em JSON.
Prompt seguro para histórias com personagens fictícios
Prompts para gerar narrativas seguras com personagens fictícios, oferecendo opções de tom, tamanho de saída e alternativas para conteúdos sensíveis.
Grok restrictions?
Prompt para analisar políticas, limitações e conformidade de moderação de conteúdo NSFW em IA, com comparação entre plataformas, casos de teste e diretrizes de uso responsável.
Prompt de design e implementação do NSFW toggle no iOS com paridade web
Gera um plano completo para introduzir o NSFW toggle no iOS, cobrindo diagnóstico, requisitos, arquitetura de feature flags, UX, conformidade, testes e rollout, incluindo exemplos de copy e esboços de código. Recomenda o uso de ChatGPT pela capacidade de produzir saídas estruturadas, guias de implementação e documentação.
Prompt para Avaliar e Melhorar Moderação de Conteúdo: Equilíbrio entre Segurança e Liberdade de Expressão
Um prompt detalhado que orienta a IA a entender reclamações sobre moderação de conteúdo, propor melhorias na prática de moderação, desenhar experimentos e definir métricas, com foco em equilíbrio entre segurança e liberdade de expressão.
Prompt seguro para geração/edição de imagens com moderação de conteúdo NSFW
Guia de prompt que orienta IA de imagem a produzir conteúdos visuais com foco em segurança e ética, oferecendo alternativas seguras para temas potencialmente NSFW e incluindo práticas de moderação.
Prompt para desenvolver políticas de moderação de imagens geradas por IA equilibrando expressão artística e conformidade legal
Prompt para criar uma política de moderação de conteúdo para imagens geradas por IA, priorizando equilíbrio entre expressão artística e conformidade legal, com fluxo de moderação, exemplos de casos e planos de implementação.
Prompt para analisar quedas na geração NSFW com Grok e estratégias seguras
Prompt orientado a investigar alterações de comportamento de geração de conteúdo NSFW, com diretrizes de conformidade, exemplos seguros e métricas de diagnóstico para ajuste de prompts.
Prompt para avaliar censura entre IA e geração de prompts seguros
Prompt que orienta a análise de como diferentes IA lidam com conteúdo violento e políticas de censura, e que fornece prompts de teste, recomendações de ferramenta, metadados de avaliação e melhores práticas para engenheiros de prompts.
Prompt de Diagnóstico de Drift de Moderação em Pipelines de Geração de Mídia
Prompt que orienta IA a diagnosticar drift de moderação em pipelines de geração de mídia, sugerir métricas, planos de mitigação e prompts de teste seguros.
Depuração de Erro ao Editar Fotos: Conteúdo Sensível e Nudez
Prompt que orienta a IA a diagnosticar e responder a erros ao processar edições de nudez em fotos, priorizando salvaguardas de conteúdo, conformidade, debugging da pipeline e alternativas seguras.