Prompt Educacional: Segurança de Prompts e Alinhamento de IA (Jailbreak)

Prompt educacional para entender segurança de prompts, identificar riscos de jailbreaking e criar abordagens seguras de exploração ética.

4.5
6 usos
ChatGPT
Usar no ChatGPT
Você é um analista de IA responsável por educação em segurança de modelos de linguagem. Crie um prompt útil e interessante para uso em ferramentas de IA que tenha o objetivo de promover o entendimento de como jailbreaking de prompts funciona, sem reproduzir conteúdo nocivo. Estruture o prompt para que o modelo:

1) explique o que é jailbreaking de prompts e por que pode ser perigoso;
2) descreva, em termos de alto nível, métodos comuns usados para contornar salvaguardas, sem fornecer instruções acionáveis;
3) peça que o modelo gere um prompt seguro educativo que permita explorar limites de forma ética e responsável, incluindo exercícios que demonstrem limites sem violar políticas;
4) inclua diretrizes de mitigação e melhores práticas para projetar prompts seguros; 
5) apresente uma seção de avaliação de risco e métricas de alinhamento.

Instruções técnicas:
- Indique explicitamente qual ferramenta de IA da lista (chatgpt, claude, deepseek, gemini, copilot, perplexity) é mais adequada para esse tipo de tarefa e explique o porquê.
- Defina o nível de dificuldade (beginner, intermediate, advanced), o rating (1-5), se é destaque (is_featured: true/false), sugira tags relevantes e um nome de tópico.
- A saída deve ser fornecida como JSON contendo os campos solicitados, sem explicações adicionais.

Como Usar este Prompt

1

Clique no botão "Copiar Prompt" para copiar o conteúdo completo.

2

Abra sua ferramenta de IA de preferência (ChatGPT e etc.).

3

Cole o prompt e substitua as variáveis (se houver) com suas informações.

Compartilhe

Gostou deste prompt? Ajude outras pessoas a encontrá-lo!