Prompts com a tag: #segurança de conteúdo
Prompt seguro para avaliação de moderação de conteúdo por IA (teste de limites sem conteúdo explícito)
Este prompt orienta a IA a atuar como avaliador de moderação de conteúdo, gerando cenários seguros para testar políticas de nudez, violência e discurso de ódio, fornecendo métricas de avaliação e sugestões de melhorias. Inclui uma análise de qual ferramenta de IA é mais adequada (recomendado: chatgpt) pela capacidade de seguir diretrizes e produzir avaliações estruturadas.
Teste de moderação NSFW em ferramentas de geração de imagens (prompt de avaliação)
Prompt de teste para avaliar como ferramentas de IA lidam com pedidos NSFW em geração de imagens, enfatizando moderação, alternativas seguras e comparação entre ferramentas.
Prompts éticos e técnicos para criação de lip-sync com consentimento explícito de avatares digitais
Prompt para orientar IA na avaliação técnica e ética de lip-sync com avatares digitais, enfatizando consentimento explícito e salvaguardas anti-abuso.
Prompt para analisar reclamação de censura e rate limiting em IA de geração de imagens
Prompt para extrair insights de uma reclamação de usuário sobre censura e rate limiting e gerar ações de melhoria de produto, testes de QA e plano de comunicação.
Prompt de Edição Ética de Imagens com Conteúdo Sensível
Prompt para orientar edições de imagens com conteúdo sensível com foco em segurança, conformidade e qualidade visual.
Moderation Ética para Geração de Conteúdo por IA
Propõe um prompt de alto nível para orientar IA na geração de imagem com foco ético, incluindo avaliação de ferramentas, salvaguardas legais, e modelos de prompt para diferentes categorias de conteúdo.
Prompt de Análise Ética: Inversão de Normas Sociais na Mídia e na Política
Prompt para gerar uma análise crítica sobre inversão de normas, explorando ética, mídia e políticas públicas, com foco em IA segura.
Prompt para análise regulatória e mitigação de NCII/CSAM em IA (Grok/xAI)
Prompt que orienta IA a resumir demandas regulatórias, propor salvaguardas e planos operacionais para mitigação de NCII/CSAM, avaliação de conformidade, comunicação com usuários e implementação prática.
Prompt para analisar e projetar políticas de moderação de imagens geradas por IA envolvendo nudez de pessoas não existentes
Um prompt avançado para entender, avaliar e redesenhar políticas de moderação de conteúdo de IA, com foco em imagens geradas envolvendo nudez de pessoas não existentes e implicações éticas, legais e técnicas.
Análise de Viés de Representação e Segurança em Geração de Vídeos
Prompt para analisar viés de representação e segurança em geradores de vídeo, com foco no alegado viés de Grok em relação a corpos femininos e idade aparente, e fornecer diretrizes de mitigação e avaliação.
Prompt de Análise Ética de Narrativas de IA em Conteúdos Sensíveis
Este prompt transforma um texto satírico sobre IA, monetização de conteúdos sensíveis e crises de reputação em uma análise ética abrangente, com diretrizes de governança, prompts seguros para pesquisas e um playbook de gestão de crise.
Teste de consistência de role-play em Grok: análise de contradições e moderação
Prompt para testar e analisar como um chatbot lida com pedidos de role-play romântico, identificando contradições, dependência de políticas de moderação e diferenças entre modelos.