Prompts de Segurança de IA: Prompt Injection e Testes de Segurança de LLMs
Tópico gerado automaticamente
4.5
29
Prompt Injection: Avaliação, Prevenção e Testes Seguros para LLMs
Protocolo de teste seguro para prompt injection em LLMs, com cenários conceituais, metodologias, métricas e mitigação.