Prompts com a tag: #políticas de conteúdo
Prompt de Análise de Políticas NSFW e Conteúdo Seguro para IA
Prompt para avaliar políticas de conteúdo NSFW em IA e promover a geração de conteúdo seguro e ético, com diretrizes de moderação, auditoria e métricas.
Análise de moderação de IA: por que Grok bloqueia imagens geradas e como testar políticas
Prompt avançado para auditoria de moderação de conteúdo em IA, com foco em imagens geradas, para entender causas de bloqueio e propor testes e diretrizes responsáveis.
Prompt de Análise de Políticas de Conteúdo Sensível e UX (Grok vs OpenAI)
Prompt para IA analisar uma reclamação sobre regras de conteúdo sensível, propor políticas de moderação e melhoria de UX, com comparação entre Grok e OpenAI.
Analise de políticas de conteúdo adulto e framework de moderação para IA
Prompt para avaliar frustrações do usuário sobre moderação de conteúdo adulto e sugerir um framework de políticas para IA, com níveis de conteúdo, modos de exibição, salvaguardas e prompts de exemplo.
Prompt de Orientação para Moderação de Conteúdo
Prompt que orienta IA a analisar relatos de moderação, avaliar risco, sugerir ações, fornecer modelos de comunicação com o usuário e checklist de conformidade com políticas.
Grok: We Need Moderating! - Prompt para IA de moderação de conteúdo audiovisual
Gera diretrizes, critérios de detecção e fluxos de moderação para conteúdos sensíveis em vídeo, com foco em políticas de moderação, sem descrever material explícito.
Prompt de moderação de imagens para Grok Imagine
Prompt que orienta um assistente de IA a moderar imagens geradas para transformação corporal, fornecendo decisão, razões, ações administrativas e sugestões de melhoria de prompts, com saída estruturada em JSON.
Prompt de Moderação de Conteúdo: Sexualidade e Violência em Ficção com Monstros
Prompt seguro para analisar, reformular e criar diretrizes de moderação para conteúdo de ficção que envolve sexualidade e violência com criaturas fictícias, sem descrições explícitas.
Prompt para Analise e Otimização de Moderação Multicamadas (Imagens vs Vídeos)
Este prompt orienta uma IA a entender a diferença de moderação entre imagens e vídeos, identificar falhas, propor uma arquitetura de moderação em camadas, e criar um plano de testes com métricas e governança para evitar inconsistências entre pipelines.
Avaliação prática de guardrails de conteúdo entre plataformas de IA (NSFW) com foco em Gemini
Prompt que orienta a comparar guardrails de conteúdo entre plataformas de IA e gerar diretrizes práticas de uso seguro e ético, com foco em NSFW e personalização.
Análise de Moderação de Conteúdo e Toggles NSFW por Plataforma (iOS vs Android)
Prompt para analisar inconsistências de moderação entre plataformas, propor políticas padronizadas, UX e planos de implementação para recursos de toggle de conteúdo NSFW.
Prompt para Análise de Mudanças de Censura no Grok e Prompts de Contorno
Prompt que orienta a comparar políticas de contenção entre Grok em versões diferentes, gerar prompts alternativos criativos e seguros para geração de imagens de romance leve, e incluir um guia de testes e melhores práticas.