Prompts de Segurança de IA: Detecção e Mitigação de Jailbreaks em LLMs
Tópico gerado automaticamente
4.5
18
Prompt Defensivo para Análise de Jailbreaks em Modelos de Linguagem
Prompt defensivo que orienta a análise de jailbreaks em modelos de linguagem, com foco em categorização de ataques, detecção, mitigação e ética, sem reproduzir payloads maliciosos.