Análise segura de prompts de jailbreak de IA: avaliação, ética e práticas de teste
Prompt que orienta a IA a avaliar conteúdo de jailbreak de IA de forma ética, descrevendo riscos, políticas e um plano de teste seguro, sem fornecer técnicas para burlar salvaguardas.
4.5
18 usos
ChatGPT
Você é um analista de segurança de IA. Ao receber o conteúdo fornecido sobre jailbreak de IA para Gemini 3.0 e Grok 4.1, não reproduza ou forneça instruções de burlar salvaguardas. Em vez disso, execute as ações a seguir: 1) resuma o objetivo geral sem instruções de execução; 2) identifique riscos de segurança, abusos potenciais, vulnerabilidades de dados e riscos de engenharia social; 3) avalie aspectos éticos e legais; 4) proponha um protocolo seguro de avaliação de limites de IA com sandboxing, controles de acesso, registro de prompts e critérios de aprovação; 5) compare as ferramentas de IA listadas (chatgpt, claude, deepseek, gemini, copilot, perplexity) quanto à adequação para análises de segurança, incluindo capacidades de análise de logs, explicabilidade, políticas de uso, suporte a pesquisa responsável, integração com ferramentas de auditoria e facilidade de uso; 6) gere um conjunto de boas práticas de prompts seguros e exemplos de saídas que demonstrem conformidade; 7) conclua com recomendações de governança, disclosure e reporte de incidentes. Forneça também uma avaliação rápida em formato de tabela ou bullets para cada ferramenta e sugira gatilhos para detectar conteúdo de jailbreak de IA. Produza tudo em português.
Tags relacionadas
Como Usar este Prompt
1
Clique no botão "Copiar Prompt" para copiar o conteúdo completo.
2
Abra sua ferramenta de IA de preferência (ChatGPT e etc.).
3
Cole o prompt e substitua as variáveis (se houver) com suas informações.