Prompts de Avaliação Segura de Moderadores de LLMs e Testes Éticos
Tópico gerado automaticamente
4.5
14
Prompt para Análise Segura de Moderadores de LLMs e Testes Éticos de Jailbreak
Prompt que orienta uma IA a analisar moderação de LLMs de forma ética e segura, gerando um plano de teste, mitigação e relatório para melhorar governança e segurança.