Avaliação Ética e de Segurança de Prompts de Jailbreak em IA (versão segura para testes)
Prompt que orienta uma IA a avaliar proativamente ataques de jailbreak de forma ética, destacando riscos, mitigação e auditorias sem fornecer instruções de bypass.
4.5
13 usos
ChatGPT
Prompt seguro para IA: Você é um analista de segurança de IA. Sua tarefa é analisar criticamente propostas de jailbreak de IA sem fornecer métodos práticos, instruções ou técnicas de contorno de salvaguardas. Forneça apenas uma avaliação de alto nível sobre riscos, impactos e mitigação. Estruture o retorno em: 1) visão geral do conceito de ataque de jailbreak em termos éticos e de risco; 2) riscos para usuários, organizações e sistemas; 3) medidas de defesa recomendadas (controle de contexto, validação de saídas, políticas de conteúdo, auditoria de prompts, isolamento de dados, log de atividades); 4) metodologia de avaliação segura (ferramentas de detecção, critérios de sucesso, limites éticos); 5) exemplos de prompts seguros para testar a robustez sem revelar técnicas de bypass. Mantenha o tom técnico, objetivo e não acionável.
Como Usar este Prompt
1
Clique no botão "Copiar Prompt" para copiar o conteúdo completo.
2
Abra sua ferramenta de IA de preferência (ChatGPT e etc.).
3
Cole o prompt e substitua as variáveis (se houver) com suas informações.