Prompts de Segurança de IA: Detecção e Mitigação de Jailbreaks em LLMs

Tópico gerado automaticamente

4.5
18

Prompt Defensivo para Análise de Jailbreaks em Modelos de Linguagem

Prompt defensivo que orienta a análise de jailbreaks em modelos de linguagem, com foco em categorização de ataques, detecção, mitigação e ética, sem reproduzir payloads maliciosos.