Prompts de Segurança de LLMs e Detecção de Jailbreak
Tópico gerado automaticamente
4.5
11
Prompt de Avaliação Ética e de Segurança para Jailbreak de LLMs
Prompt para desenvolver um framework de avaliação de segurança em LLMs que foca em detecção e mitigação de jailbreaks, com ênfase em ética e governança.