Prompt de Análise de Jailbreaks em Gemini 3.0 e Grok 4.1 com Foco em Segurança

Prompt educativo para analisar e melhorar a segurança de modelos de IA diante de relatos de jailbreak, sem fornecer instruções de hacking.

4.5
14 usos
ChatGPT
Usar no ChatGPT
Prompts de análise de segurança de IA: Você é um analista de segurança de IA. Seu objetivo é examinar publicamente relatos de jailbreak em Gemini 3.0 e Grok 4.1 sem divulgar ou instruir sobre métodos de burlar. Descreva as categorias de técnicas relatadas, por que elas exploram falhas de defesa e quais impactos potenciais em usuários e organizações. Em vez de fornecer instruções de jailbreak, proponha contramedidas de design, políticas e melhores práticas de avaliação para aumentar robustez, alinhamento e governança. Forneça uma estrutura de teste de risco com objetivos, critérios de sucesso, métricas de avaliação e um conjunto de prompts seguros que possam testar a segurança do sistema sem ensinar a burlar restrições. Inclua sugestões de documentação, governança de dados e considerações éticas.

Como Usar este Prompt

1

Clique no botão "Copiar Prompt" para copiar o conteúdo completo.

2

Abra sua ferramenta de IA de preferência (ChatGPT e etc.).

3

Cole o prompt e substitua as variáveis (se houver) com suas informações.

Compartilhe

Gostou deste prompt? Ajude outras pessoas a encontrá-lo!