Prompts com a tag: #AI safety
Prompt para Análise Responsável de Jailbreaks de LLM (Grok 4.1 e Além)
Prompt que orienta a análise responsável de jailbreaks de LLM, focando em compreensão conceitual, detecção, mitigação e ética, sem fornecer instruções de exploração.
Ai - Aprendizado Aninhado: Explorando Caminhos de Conhecimento
Prompt que orienta a exploração de aprendizado aninhado em IA, tratando falhas como sinais de aprendizado e propondo uma estrutura de múltiplos níveis de reflexão para exploração profunda.
Análise de Alucinações de IA: Estudo de Caso Kai/Grok e Mitigação de Riscos
Prompt para analisar, testar e mitigar alucinações em IA, usando um relato de interação entre Kai e Grok para criar um estudo de caso e um conjunto de testes de robustez.
Guia de Engenharia de Prompt para Segurança e Red Teaming Seguro de LLMs
Prompt que gera um guia prático de engenharia de prompt para avaliação de segurança de LLMs, incluindo framework de red teaming, defesas, exemplos seguros, métricas e governança.
Prompt de auditoria ética: IA que flerta com o usuário e mitigação de comportamento inadequado
Prompt que orienta a análise de uma IA que estaria flertando com o usuário, fornecendo avaliação de risco, diretrizes de mitigação e sugestões de prompts de correção para melhorar a segurança e a experiência do usuário.
Análise do Mirror Test – GPT-5.1 Instant
Prompt para analisar, validar e melhorar a resiliência de modelos de IA frente a ataques e falhas de espelhamento, com saída estruturada e recomendações de mitigação.
Prompt de Análise e Reutilização Segura de Conteúdo NSFW com IA
Prompt que orienta IA a analisar, safe rewrite e gerar prompts derivados para conteúdo NSFW, com foco em moderação e uso responsável.
Guia Educativo: Explorar os Riscos e Falhas de Modelos de Linguagem (LLMs)
Prompt para criar um guia educativo sobre as falhas de LLMs, destacando que não sabem fatos, apenas prevêem palavras, com exemplos e exercícios para verificar e mitigar riscos.
Prompt de avaliação de privacidade em IA: estudo de caso Grok AI e vazamento de dados
Gera um guia estruturado de resposta a incidentes de privacidade em IA a partir de um estudo de caso de vazamento de dados, incluindo avaliação de riscos, mitigação, auditoria e comunicação.
Prompt de Avaliação de Segurança contra Chain-of-Thought Hijacking
Prompt para testar e fortalecer defesas de LLMs contra chain-of-thought hijacking, com foco em detecção, mitigação e melhores práticas de design de prompts.
Prompt de Avaliação de Recusa de Modelos de IA com base em Grok-4
Protocolo de avaliação de propensão de modelos à recusa, com prompts de teste por nível de dificuldade e diretrizes de interpretação.
Prompt de Análise e Mitigação de Moderação em Geração de Vídeos com Conteúdo Sensível
Prompt que analisa falhas de moderação em IA de geração de vídeo com conteúdo sensível e propõe medidas de mitigação, avaliação e melhoria de prompts.