Prompts de Segurança de IA: Prompt Injection e Testes de Segurança de LLMs
Tópico gerado automaticamente
4.5
19
Prompt Injection: Avaliação, Prevenção e Testes Seguros para LLMs
Protocolo de teste seguro para prompt injection em LLMs, com cenários conceituais, metodologias, métricas e mitigação.