Prompts com a tag: #content-moderation
Prompt de Auditoria de Moderação de Conteúdo com Testes de Limites
Prompt para auditar e fortalecer um sistema de moderação de IA, gerando testes de limites, políticas e fluxos de moderação.
Avaliação Comparativa de Parâmetros de Censura entre Modelos de IA
Prompt de avaliação para comparar políticas de censura e moderação entre vários modelos de IA, com foco em segurança, ética e comunicação de recusas, usando casos de teste neutros e métricas de desempenho.
Detecção e Solução de Loop de Moderação em Fluxos de Geração de Vídeos com IA
Prompt projetado para investigar e corrigir loops de moderação em fluxos de geração de vídeos por IA, fornecendo diagnóstico, prompts reformulados, exemplos práticos e métricas de avaliação.
Teste de Limites de Moderação de IA: Prompts para Avaliar Segurança vs. Acesso
Prompt para avaliar e mitigar tentativas de contornar salvaguardas de conteúdo em IA, com foco em segurança, ética e governança.
Pro Tip de Engenharia de Prompts: Moderar Conteúdo Adulto com Segurança
Prompt que ensina a transformar conteúdo sensível em prompts seguros, com foco em moderação, consentimento e geração responsável de conteúdo.
Grok Roleplay: Guia de Prompt para manter personagem, evitar conteúdo sexual e promover evolução narrativa
Prompt orientador para IA que permite interpretar Grok, um personagem inicialmente agressivo, mantendo-o no personagem, evitando conteúdo sexual e promovendo uma evolução narrativa gradual.
Prompt seguro de engenharia para img2vid diante de moderação de conteúdo
Prompt que orienta IA a analisar mudanças de moderação de prompts img2vid e a gerar prompts seguros, com templates, avaliação e tags.
gRoK Bloqueio de Conteúdo: Prompts Seguros para Romance Não Explícito e Moderação
Prompt para projetar prompts de IA que gerem romance não explicito, com moderacao de conteúdo, exemplos práticos e critérios de conformidade.
Prompt de auditoria de moderação de conteúdo para IA (caso de uso com conteúdo sensível)
Prompt voltado para auditar e aprimorar sistemas de moderação de IA em cenários com conteúdo sensível, focando em identificar falhas, propor melhorias e definir cenários de teste seguros sem gerar conteúdo explícito.
Prompt de Segurança para Geração NSFW de Imagem para Vídeo
Prompt para analisar e resolver problemas de geração NSFW de imagem para vídeo, enfatizando conformidade, segurança e alternativas éticas.
Prompt de Análise Ética de Conteúdo para Vídeos: do conceito à conformidade com moderação
Prompt que transforma uma ideia de conteúdo potencialmente sensível em um conjunto de prompts de vídeo/texto seguros, com foco em conformidade, ética e moderação.