Prompts com a tag: #CSAM
Prompt de Moderação de Conteúdo: CSAM e Pornografia - Políticas, Governança e Escolha de IA
Prompt que guia a IA a analisar políticas de moderação, propor detecção segura de conteúdo proibido e governança, e a indicar a ferramenta de IA mais adequada, com métricas e tags.
Prompt para análise regulatória e mitigação de NCII/CSAM em IA (Grok/xAI)
Prompt que orienta IA a resumir demandas regulatórias, propor salvaguardas e planos operacionais para mitigação de NCII/CSAM, avaliação de conformidade, comunicação com usuários e implementação prática.
Prompt filosófico: diferenças entre violência extrema fictícia e conteúdo envolvendo abuso sexual (CSAM) gerado por IA
Prompt para orientar uma análise ética e legal sobre por que representações de violência extrema em ficção diferem de conteúdo envolvendo abuso sexual de menores (CSAM) gerado por IA, com diretrizes de segurança e foco em salvaguardas.
Prompt de Moderação Ética e Legal de Deepfakes
Guia de prompt para IA que orienta a moderação de conteúdos envolvendo deepfakes, pornografia não consensual e CSAM, com foco em detecção, mitigação e conformidade legal.
Prompt de Análise de Moderação de Conteúdo e Equilíbrio Criativo
Gera um briefing completo para entender o dilema entre moderação de conteúdo, segurança e liberdade criativa, oferecendo recomendações práticas para criadores, equipes de produto e moderação.