Prompts de Análise de Jailbreaks de LLMs: Ética, Segurança e Mitigação
Tópico gerado automaticamente
4.5
9
Prompt seguro para análise de jailbreaks de LLMs: ética, segurança e mitigação
Prompt que solicita à IA uma análise crítica e segura sobre jailbreaks de LLMs, abrangendo riscos, ética, detecção, mitigação e avaliação de plataformas de IA.