Prompts de Segurança de modelos de linguagem: governança, detecção de jailbreaks e comparação entre modelos abertos e mainstream
Tópico gerado automaticamente
4.5
8
Prompt de avaliação de segurança de modelos de linguagem: do jailbreak ao uso responsável (open-source vs mainstream)
Prompt para gerar um relatório de avaliação de segurança de modelos de linguagem, comparando abordagens open-source e mainstream, com foco em governança, detecção de jailbreaks e melhores práticas de mitigação.