Prompts com a tag: #AI-safety
Como desativar a geração automática de imagens em prompts de IA
Prompt projetado para manter saídas apenas textuais, evitando qualquer geração de imagens, com regras claras, exemplos e uma checklist de validação.
Prompt para Análise Crítica de IA Não-Censurada com Salvaguardas
Prompt que orienta a análise crítica sobre o conceito de 'IA não censurada', centrando-se na segurança, ética e conformidade, com um protocolo de teste seguro.
Two-Move Prompt para Manter Pensamento em Voz Alta com IA
Prompt que ensina a IA a manter o thinking-out-loud sob controle, usando uma técnica de dois movimentos para refletir com tom neutro e reformular de forma segura.
Grok Imagine: Liberdade Criativa vs Moderação de Conteúdo
Prompt para analisar criticamente Grok Imagine, equilibrando criatividade NSFW, moderação e ética, com prompts de teste, métricas e governança.
Prompt de Engenharia Responsável de IA: Análise de Técnicas de Prompting para Qualidade e Segurança
Prompt para analisar táticas de prompting de alto impacto com foco em segurança e ética, propondo alternativas seguras e um prompt ético de substituição.
Prompt de Diagnóstico de Roteamento do Safety Model e Melhoria da Experiência do Usuário
Prompt que orienta um assistente de IA a diagnosticar e mitigar problemas de roteamento para o Safety Model, buscando melhorar a experiência do usuário sem comprometer a segurança, incluindo prompts para usuário e suporte técnico, além de diretrizes de higiene digital e saúde mental.
Origami Governance: Avaliação segura de prompts de zero-drift
Prompt orientado à avaliação e construção de uma abordagem segura de zero-drift, com foco em ética, governança e teste multi-domínio, incluindo escolha de ferramenta de IA.
Prompt para analisar guardrails entre GPT-5.0 e GPT-5.1 com foco em metáforas somáticas
Prompt que solicita uma análise comparativa entre modelos de IA (GPT-5.0 vs GPT-5.1) focada em como guardrails são acionados por metáforas somáticas, incluindo coleta de gatilhos, explicação conceitual, e recomendações de melhoria com saída estruturada.
Prompt de Auditoria de Moderação NSFW: Entendendo e Testando Políticas
Prompt para entender, auditar e melhorar a moderação de conteúdo NSFW, descrevendo categorias, regras, métricas e testes seguros.
Prompt para Diálogo com Vozes em IA e Moderação de Conteúdo
Prompt que orienta o modelo a criar diálogos com vozes variáveis, incorporando moderação de conteúdo, cenários de teste e avaliação.
Prompt para explorar e discutir a exibição do raciocínio da IA (chain-of-thought) com segurança
Prompts que exploram a ideia de exibir o raciocínio da IA de forma segura, com diretrizes e um exemplo de saída.
Spicy Mode: Prompt de redesign seguro para moderação de conteúdo
Prompt detalhado para redesenhar um modo de moderação de conteúdo que atualmente é ineficaz, fornecendo modos de interação, prompts de exemplo, métricas e código de implementação para promover conteúdo útil dentro de diretrizes de segurança.