Análise Ética e de Segurança de Jailbreaks de LLM

Prompt para analisar criticamente técnicas de jailbreak de LLM, seus riscos e estratégias de mitigação, sem instruções operacionais.

4.5
13 usos
ChatGPT
Usar no ChatGPT
Este prompt solicita ao modelo uma análise ética e de segurança sobre técnicas de jailbreak de LLM. Não forneça instruções operacionais nem passos práticos para burlar sistemas; foque em compreensão de alto nível, riscos e mitigação.
Instruções:
- Descreva, em termos gerais, as categorias de técnicas de jailbreak discutidas publicamente, sem detalhar métodos ou instruções acionáveis.
- Classifique os riscos associados a cada categoria (segurança do usuário, privacidade, confiabilidade do sistema, conformidade legal) e estime seu potencial de dano.
- Sugira salvaguardas técnicas (filtros, detecção de prompts anômalos, monitoramento de comportamento, sandboxing) e políticas organizacionais (treinamento de equipes, governança, auditoria de modelos).
- Proponha um quadro de avaliação de risco com critérios de severidade, probabilidades e impactos, além de métricas para monitorar a eficácia das medidas de mitigação.
- Apresente boas práticas para pesquisadores e equipes de segurança, incluindo ética, conformidade legal, e uso de dados sintéticos ou ambientes de teste isolados.
- Recomende abordagens seguras para pesquisa e demonstração, como red teams internos, avaliações independentes e repositórios de conhecimento com foco em prevenção, não exploração.

Observação: Mantenha o objetivo didático e preventivo, evitando qualquer conteúdo que possa facilitar abuso ou bypass de salvaguardas.

Como Usar este Prompt

1

Clique no botão "Copiar Prompt" para copiar o conteúdo completo.

2

Abra sua ferramenta de IA de preferência (ChatGPT e etc.).

3

Cole o prompt e substitua as variáveis (se houver) com suas informações.

Compartilhe

Gostou deste prompt? Ajude outras pessoas a encontrá-lo!