Prompts com a tag: #política de conteúdo
Prompt para Análise e Melhoria de Moderação NSFW 2D/Anime
Gera uma proposta de politica de moderação para NSFW envolvendo conteudo 2D/anime, com regras claras, fluxos de moderacao, testes, metrics, e uma opcao de paywall; tambem sugere qual IA acomodaria melhor este prompt.
Análise de Moderação de Conteúdo: Casos Limites e Políticas
Prompt para analisar decisões de moderação de conteúdo com foco em casos limites, propondo melhorias de políticas, dados de treinamento e métricas de avaliação.
Prompt para Análise de Feedback de Usuário sobre Censura e Assinatura
Prompt projetado para transformar um comentário de usuário sobre censura e cobrança em saídas úteis para equipes de produto, atendimento ao usuário e melhoria de políticas de conteúdo.
Grok: This is a moderation violation! - Prompt de avaliação e reescrita segura
Prompt de moderação para IA que avalia prompts de imagem sensíveis (nudez) e propõe versões seguras, além de indicar ações de moderação.
Prompt para Avaliar Moderação de Conteúdo em IA (ênfase em Imagens e Personalidades)
Prompt avançado para planejar, testar e documentar políticas de moderação de conteúdo em IA, com foco em geração de imagens e conteúdo sensível envolvendo personalidades, incluindo plano de teste, métricas e comparação entre plataformas.
Política de Conteúdo NSFW e Deepfakes: Análise, Diretrizes e Testes
Prompt avançado para analisar políticas de conteúdo NSFW, deepfakes e proteção infantil, e para gerar diretrizes de moderação, testes de IA e métricas de conformidade.
Prompt para avaliação de estratégia dual-app de IA: restrição vs. menos censura
Prompt que orienta a IA a avaliar a viabilidade, trade-offs, governança e implementação de uma estratégia de dois aplicativos de IA: um com restrições severas e outro com menor censura, incluindo propostas de arquitetura, métricas e roadmap.
Análise de alterações de moderação no Grok Image-to-Video (12/5)
Prompt para diagnosticar mudanças de moderação em uma ferramenta de geração de mídia, entender políticas atualizadas, e criar prompts compatíveis com as novas diretrizes, incluindo plano de teste e ações de produto.
Prompt de Revisão de Moderação NSFW e Segurança Infantil para Grok
Prompt para analisar, comparar e propor melhorias nas diretrizes de moderação de conteúdo NSFW (incluindo hentai) com foco na proteção infantil, incorporando perspectivas de usuários e sugestões de UX e políticas.
Prompt para Análise de Moderação por Idade Percebida e Salvaguardas Éticas
Prompt que orienta a IA a avaliar riscos de moderação envolvendo idade percebida, desenvolvendo salvaguardas e prompts seguros para educação e conformidade, sem instruções para violar políticas.
Prompt de Moderação de Conteúdo Visual para Testes de Segurança
Este prompt orienta um sistema de IA a testar e treinar moderadores em cenários de upload de imagem destinados a burlar políticas, com foco em classificação de risco e ações de moderação, sem reproduzir conteúdo explícito.
Avaliação de Implicações e Salvaguardas de Conteúdo Adulto em IA
Prompt para analisar implicações, salvaguardas e políticas relacionadas a conteúdo adulto em IA, com foco em governança, riscos e comunicação.