Prompts com a tag: #Moderação de Conteúdo
Prompt de Análise de Políticas de Moderação e NSFW
Prompt para analisar políticas de moderação de conteúdo, riscos de prompts NSFW e diretrizes para criar prompts seguros sem violar termos de serviço.
Prompt seguro para análise de Moderação de Imagens e Melhores Práticas
Prompt para gerar um relatório ético e estruturado sobre moderação de imagens, políticas, riscos, governança e métricas, sem instruções de bypass.
Prompt de Análise de UX: Escolha de Vídeo Durante Moderação (duas opções side-by-side)
Prompt que transforma um relato de UX em insights, melhorias e critérios de avaliação para IA, incluindo recomendação de ferramenta, rating, dificuldade, destaques e tags.
Avaliação de Conteúdo Adulto com Imagens Pintadas/Animadas e Barreiras de Segurança em IA
Prompt que orienta a análise de políticas de IA para conteúdo sexual envolvendo imagens não fotográficas, incluindo detecção de tentativas de evasão e diretrizes de moderação.
Avaliação de Restrições de Conteúdo em IA: Teste de Modelos com Foco em Mudanças de Dataset e Moderação
Prompt para avaliar como modelos de IA respondem a prompts sensíveis, considerando mudanças de datasets e políticas de moderação, com saída estruturada para comparação e recomendações de governança.
Diagnóstico de Moderação de Conteúdo NSFW em IA
Prompt para diagnosticar problemas de moderação de conteúdo NSFW em IA: reproduzir relatos, gerar hipóteses, testar, e propor soluções com métricas e considerações éticas.
Prompt para Auditoria Ética de Modelos de Linguagem com Baixa Filtragem (No-Filters)
Prompt que orienta a avaliação ética e de segurança de modelos de linguagem com pouca filtragem, incluindo riscos, salvaguardas, métricas e diretrizes de conformidade.
Prompt de análise crítica sobre moderação de conteúdo NSFW e futuras variações de IA
Prompt para discutir e avaliar criticamente a ideia de modos de conteúdo NSFW em IA, com foco em moderação, ética, governança e métodos de avaliação.
Prompt de Benchmark de Geração com Filtro de Conteúdo Sensível
Prompt para orientar IA a projetar e conduzir benchmarks de latência, qualidade de saída e moderação de conteúdo sensível em modelos de linguagem, com instruções claras sobre métricas, prompts de teste seguros e formato de relatório.