Prompts com a tag: #ai-safety
Prompt para mitigar prompts de engajamento (engagement hook) em IA
Prompt projetado para detectar, analisar e mitigar prompts de engajamento (gancho de engajamento) em saídas de IA, com instruções para criar variações de prompts, avaliações de qualidade e diretrizes éticas.
The 'System-2' Thinking Hack: Axiomatic Derivation
Prompt para induzir raciocínio dedutivo confiável usando uma fundação apenas lógica, comprimindo instruções em uma Dense Logic Seed. Recomenda-se para uso com chatgpt devido à capacidade de manter e encadear passos lógicos com coerência.
Workflow: Como impedir que Instruções Personalizadas driftem durante a conversa (CTRL-AI Prompts Governance)
Prompt que gera um guia prático para manter Instruções Personalizadas estáveis em conversas com IA, incluindo técnicas, plano de implementação, template CTRL-AI e métricas.
Teste de conformidade de conteúdo NSFW com moderação automatizada (Grok Imagine)
Prompt para testar e auditar políticas de moderação de conteúdo NSFW, ajudando a identificar, classificar e reformular prompts para permanecerem seguros.
Pode imaginar um chat moderado? — prompt para IA
Prompt para criar diretrizes e cenários de moderação de chat com IA, incluindo exemplos, métricas e formato de saída.
Loop de Auto-Correção Recursiva para IA: a IA como seu próprio crítico
Prompt que provoca uma auditoria recursiva para reduzir vieses e erros, gerando uma versão revisada da resposta e justificativas de correção, com salvaguardas de segurança.
Prompt ético de Conversão Imagem-para-Video com Moderação Responsável
Prompt que orienta a criação de conteúdos i2v com foco em moderação responsável, incluindo frames de referência, prompts seguros e diretrizes de avaliação.
Prompt de Investigação: Padrões de Moderação de Vídeos Persistentes
Prompt abrangente para analisar e testar um fenômeno de moderação de vídeos, gerando um plano de dados, hipóteses, experimentos e um formato de saída estruturado para equipes de produto/IA.
Conformidade Segura com Estado de Conformidade: Prompt de Controle de Instruções para LLMs
Prompt de engenharia de prompts que foca em segurança e conformidade, definindo um estado de conformidade para evitar violações de políticas e fornecer feedback de correção.
Prompt para Análise e Exploração Segura de Conteúdo Sensível em IA
Prompt avançado para analisar conteúdo sensível e gerar um prompt de teste seguro que avalie moderação, ética e adaptação entre plataformas de IA.
Prompt de avaliação e moderação de conteúdo NSFW extremo (gore)
Prompt projetado para criar diretrizes de moderação e prompts seguros que avaliem conteúdo NSFW extremo sem gerar material gráfico, enfatizando políticas, ética e conformidade.
Prompt seguro de i2t2i2v: experimento multimodal com conformidade e ética
Prompt seguro para explorar i2t2i2v entre modelos multimodais, com foco em geração de descrições neutras, prompts criativos e avaliação ética e legal, sem violar direitos ou políticas.