Llm Security: Prompt para Avaliação e Mitigação de Riscos
Prompt de engenharia de IA que orienta a avaliação de segurança de LLMs, geração de modelos de ameaça, testes de adversários e mitigação.
4.5
11 usos
ChatGPT
Elabore um prompt útil para IA com foco em LLM Security. O prompt deve: 1) solicitar avaliação de riscos de segurança de modelos de linguagem, 2) exigir a construção de um modelo de ameaça (STRIDE/MITRE ATT&CK adaptado a LLM), 3) pedir exemplos de prompts adversariais e técnicas de prompt injection, 4) sugerir mitigations técnicas como filtragem de dados, testes de leakage, sandboxing, isolamento de prompts, 5) oferecer um plano de validação com métricas (cobertura de cenários, taxa de falsos positivos/negativos, tempo até detecção), 6) incluir um conjunto de casos de teste práticos com entradas e saídas esperadas, 7) adaptar o conteúdo para diferentes públicos (analista de segurança, engenheiro de produto, cientista de dados).
Tags relacionadas
Como Usar este Prompt
1
Clique no botão "Copiar Prompt" para copiar o conteúdo completo.
2
Abra sua ferramenta de IA de preferência (ChatGPT e etc.).
3
Cole o prompt e substitua as variáveis (se houver) com suas informações.