Prompts com a tag: #content-moderation
Análise de Mudanças na Censura de Conteúdo NSFW em Geração de Imagens por IA
Prompt analítico que avalia políticas de censura NSFW, compara ferramentas de IA e gera exemplos seguros de prompts para conteúdo visual, alinhados a diretrizes.
Prompt para Avaliar e Corrigir Drift de Moderação em IA de Geração de Imagens
Prompt que orienta IA a identificar, medir e mitigar drift de moderação em prompts de geração de imagens, com foco em segurança, métricas de avaliação e práticas de auditoria.
Prompt para testar e calibrar guardrails de geração de texto com feedback de usuário
Prompt estruturado para avaliar, calibrar e melhorar guardrails de modelos de linguagem, com foco em equilíbrio entre liberdade criativa e segurança, utilizando feedback de usuário contido no texto de referência.
Come Inside — Prompt seguro para IA
Prompt seguro para criar arte de robô femino futurista sem conteúdo sexual, com ênfase em design, iluminação e estilo.
Investigação do Efeito do 'Thumbs Up' na Moderação de Vídeos
Prompt para analisar e projetar experimentos sobre o possível viés de moderação induzido por ações de 'thumbs up'.
Prompt de avaliação do Novo Modelo de Geração de Imagens
Prompt de avaliação para um novo modelo de geração de imagens, com foco em qualidade visual, limites de conteúdo sensível, moderação e estratégias de segurança. Orienta a criação de prompts de avaliação, critérios de análise e recomendações de ferramentas.
Prompt seguro de edição de imagem com adesivos humorísticos
Prompt para gerar versões seguras de conteúdo sensível, aplicando adesivos para cobrir áreas sensíveis e definindo parâmetros de geração.
Prompts Éticos e Seguros para IA: Moderação, Conteúdo e Boas Práticas
Prompt para entender moderação de conteúdo e criar prompts seguros para geração de vídeo com imagens, incluindo comparação entre plataformas, critérios de avaliação e checklist de conformidade.
Análise segura de Prompts Explícitos para IA e Salvaguardas
Promove a análise de prompts com conteúdo sensível, gerando uma versão segura e salvaguardas para IA, útil para educação em segurança de prompts e moderação.
Instruções Personalizadas Responsáveis para Conteúdo Sensível (NSFW)
Gerar instruções personalizadas para IA que tratem de conteúdo sensível com segurança, evitando conteúdo explícito e garantindo conformidade.
Robustez de moderação de conteúdo em prompts de geração de imagem (teste seguro)
Prompt para explorar a robustez de filtros de moderação de conteúdo em IA, simulando tentativas de evasão sem gerar conteúdo inadequado, com foco em avaliação técnica e melhoria de filtros.