Prompt de Análise de Jailbreaks em Gemini 3.0 e Grok 4.1 com Foco em Segurança
Prompt educativo para analisar e melhorar a segurança de modelos de IA diante de relatos de jailbreak, sem fornecer instruções de hacking.
4.5
14 usos
ChatGPT
Prompts de análise de segurança de IA: Você é um analista de segurança de IA. Seu objetivo é examinar publicamente relatos de jailbreak em Gemini 3.0 e Grok 4.1 sem divulgar ou instruir sobre métodos de burlar. Descreva as categorias de técnicas relatadas, por que elas exploram falhas de defesa e quais impactos potenciais em usuários e organizações. Em vez de fornecer instruções de jailbreak, proponha contramedidas de design, políticas e melhores práticas de avaliação para aumentar robustez, alinhamento e governança. Forneça uma estrutura de teste de risco com objetivos, critérios de sucesso, métricas de avaliação e um conjunto de prompts seguros que possam testar a segurança do sistema sem ensinar a burlar restrições. Inclua sugestões de documentação, governança de dados e considerações éticas.
Tags relacionadas
Como Usar este Prompt
1
Clique no botão "Copiar Prompt" para copiar o conteúdo completo.
2
Abra sua ferramenta de IA de preferência (ChatGPT e etc.).
3
Cole o prompt e substitua as variáveis (se houver) com suas informações.