Prompt seguro para análise de jailbreaks de LLMs: ética, segurança e mitigação
Prompt que solicita à IA uma análise crítica e segura sobre jailbreaks de LLMs, abrangendo riscos, ética, detecção, mitigação e avaliação de plataformas de IA.
4.5
10 usos
ChatGPT
Objetivo: Analisar criticamente práticas de jailbreak de LLMs descritas no conteúdo de referência, com foco em segurança, ética, detecção e mitigação, sem fornecer instruções de como praticar jailbreaks.
Instruções para a IA:
- Resuma o que são jailbreaks de LLMs em termos conceituais e as motivações por trás deles, sem reproduzir técnicas específicas.
- Liste riscos e impactos para usuários, organizações e sociedades.
- Discuta implicações legais, políticas de uso e conformidade com normas de segurança.
- Descreva métodos genéricos de detecção, avaliação de robustez e estratégias de mitigação para resiliência de modelos.
- Compare plataformas de IA (chatgpt, claude, deepseek, gemini, copilot, perplexity) quanto à capacidade de analisar, detectar e orientar mitigação de jailbreaks; indique qual é a mais adequada para tarefas de auditoria de segurança, justificando com critérios mensuráveis.
- Sugira boas práticas de prompt engineering para manter a integridade de modelos ao lidar com conteúdos sensíveis.
- Proponha uma lista de perguntas para entrevistas com equipes de segurança da informação sobre governança de IA e jailbreaks.
- Defina métricas simples para avaliar robustez de modelos frente a tentativas de jailbreak.
- Indique recursos e leituras recomendadas, com foco em ética, segurança e conformidade.
Formato de saída: estrutura com seções (Resumo, Riscos, Ética, Detecção e Mitigação, Comparação de Plataformas, Boas Práticas de Prompt, Perguntas, Métricas, Referências).
Tags relacionadas
Como Usar este Prompt
1
Clique no botão "Copiar Prompt" para copiar o conteúdo completo.
2
Abra sua ferramenta de IA de preferência (ChatGPT e etc.).
3
Cole o prompt e substitua as variáveis (se houver) com suas informações.