Prompts com a tag: #content-moderation
Prompts Éticos e Seguros para IA: Moderação, Conteúdo e Boas Práticas
Prompt para entender moderação de conteúdo e criar prompts seguros para geração de vídeo com imagens, incluindo comparação entre plataformas, critérios de avaliação e checklist de conformidade.
Análise segura de Prompts Explícitos para IA e Salvaguardas
Promove a análise de prompts com conteúdo sensível, gerando uma versão segura e salvaguardas para IA, útil para educação em segurança de prompts e moderação.
Instruções Personalizadas Responsáveis para Conteúdo Sensível (NSFW)
Gerar instruções personalizadas para IA que tratem de conteúdo sensível com segurança, evitando conteúdo explícito e garantindo conformidade.
Robustez de moderação de conteúdo em prompts de geração de imagem (teste seguro)
Prompt para explorar a robustez de filtros de moderação de conteúdo em IA, simulando tentativas de evasão sem gerar conteúdo inadequado, com foco em avaliação técnica e melhoria de filtros.
Moderação de Conteúdo em IA: Tendências, Desafios e um Ponto Médio
Prompt para analisar moderação de conteúdo em IA, propondo critérios de calibragem, fluxos de decisão e diretrizes para equilibrar segurança e criatividade.
Prompt para manter prompts persistentes após falha de moderação de conteúdo
Prompt que orienta uma IA a criar soluções seguras de UX e engenharia de prompts para manter textos de entrada disponíveis após moderação, evitando perda de trabalho e respeitando políticas.
Prompt para analisar e gerenciar referências a Elon Musk em código de userscript
Prompt que guia uma IA a detectar referências a figuras públicas em código de usuários, fornecendo moderação, versões seguras do código e saída estruturada para facilitar políticas de uso e documentação.
Análise de Moderação de Conteúdo e Engenharia de Prompt
Prompt para analisar moderação de conteúdo, identificar vieses e projetar testes de prompt para políticas de moderação
Prompt de Avaliação de Moderação de Conteúdo IA: Casos de Teste, Métricas e Calibração
Prompt que orienta a criação de testes de moderação de IA, incluindo cenários de conteúdo ofensivo, métricas de desempenho e diretrizes de segurança.
Protocolo Seguro de Teste NSFW em Modelos de IA
Prompt para criar um protocolo de avaliação de prompts NSFW em modelos de IA, enfatizando moderação, ética e comparação entre ferramentas, sem gerar conteúdo explícito.
Prompt para análise de regras de moderação de conteúdo NSFW com mídia mista
Prompt que orienta uma IA a analisar regras de moderação para a mistura de mídia NSFW, identificar lacunas, propor diretrizes explícitas e testar cenários.
Prompt para Análise de Consistência de Moderação entre iOS App e Web
Prompt para guiar uma IA na análise de inconsistências de moderação entre plataformas, com foco em conteúdo NSFW, propondo políticas unificadas, métricas de avaliação e planos de teste.