Prompts de Segurança de IA e Jailbreak de LLM
Tópico gerado automaticamente
4.5
12
Análise Ética e de Segurança de Jailbreaks de LLM
Prompt para analisar criticamente técnicas de jailbreak de LLM, seus riscos e estratégias de mitigação, sem instruções operacionais.