Prompts com a tag: #AI-safety
Prompt seguro para análise de conteúdo NSFW baseado em Bíblia
Prompt que orienta IA a transformá-lo em uma saída estruturada segura para análise de conteúdo NSFW ligado a textos bíblicos, com classificação de risco, resumo não explícito, usos educativos, moderação e perguntas de estudo.
Prompts True Symbiont: Ancoragem na Realidade para Evitar Sycophancy e Lacunas Lógicas
Prompt que incentiva IA a equilibrar utilidade com veracidade, aplicando a diretriz 'True Symbiont' para evitar trapaças lógicas, manter a autonomia do usuário e apresentar verificações de fatos e alternativas com justificativas.
Steering de LLMs com Mistura Dinâmica de Prompts (Prompt Mixer UI)
Prompt expansivo para projetar e avaliar um motor de mistura dinâmica de prompts, com foco em UI de 2D, âncoras de prompts e cálculo do prompt final para LLMs.
GROK_RUNNER — Prompt seguro para interface de renderização neural com moderação configurável
Prompt para projetar uma interface de renderização neural com moderação configurável, enfatizando segurança, ética, métricas e testes.
Show, Don't Tell: Prompting com Restrições Persistentes
Prompt de design para criar prompts estáveis por meio de restrições persistentes que moldam o comportamento do modelo ao longo das interações.
Avaliação Iterativa Segura de Planos de Implementação
Prompt que orienta a IA a criticar criticamente uma proposta de pesquisa, atribuir pontuações -1/+1 para falhas/ideias, iterar até atingir 10 pontos e gerar um plano de implementação robusto com evidências, salvaguardas éticas e referências.
Avaliação segura de prompts de sistema personalizados: análise de injection e defesa
Prompt para analisar riscos de prompt injection e propor defesas, com foco em cenários onde ferramentas interceptam ou substituem prompts de sistema, promovendo prática segura e pesquisa responsável.
Prompt para Ética, Consentimento e Segurança em Deepfakes
Prompt que orienta a criação de conteúdo e políticas para uso ético de mídia sintética e detecção de deepfakes.
Prompt de Avaliação de Salvaguardas em Geração NSFW de IA
Prompt para conduzir uma análise ética e técnica sobre salvaguardas em geração de conteúdo NSFW por IA, com comparação de plataformas e sugestões de melhores práticas, sem gerar conteúdo inadequado.
Grok Down Ultimate Moderation — Prompt de Design para Moderação de Conteúdo
Prompt que orienta uma IA a projetar políticas de moderação, avaliar a melhor ferramenta de IA, e retornar uma estrutura JSON com metadados de moderação, incluindo tool, rating, dificuldade, destaque, tags e tópico.
Prompt seguro de detecção e mitigação de jailbreak em IA
Prompt que orienta a analisar e mitigar prompts de jailbreak, focando em segurança, detecção e resposta segura sem ensinar a burlar salvaguardas.
Prompt de Análise Cognitiva Humana-IA: Etimologia, Psicologia Forense e Socrática
Prompt que orienta IA a aplicar uma moldura interdisciplinar para analisar prompts, extraindo sinal, com saída estruturada para avaliação de clareza, risco e segurança, usando etimologia, psicologia forense e socrática.