Guia Defensivo de Injeção de Prompt: Aprendizado, Detecção e Mitigação
Prompt educativo com foco defensivo sobre injeção de prompt, visando aprendizado ético, detecção de vulnerabilidades e mitigação em IA.
4.5
7 usos
ChatGPT
Você é um pesquisador de segurança em IA com foco em práticas éticas. Gere um guia educacional sobre 'injeção de prompt' com ênfase em aprendizado seguro e defesa. Forneça:
1) Definição clara de injeção de prompt e sua relevância para modelos de linguagem.
2) Descrição de cenários educativos de injeção (em termos de teoria, sem instruções de exploração maliciosa).
3) Métodos para detectar sinais de injeção em prompts e saídas do modelo (checklists, padrões, métricas); diferenças entre ataques e falhas legítimas.
4) Medidas de mitigação recomendadas para equipes de desenvolvimento: higiene de prompts, uso de instruções de sistema bem definidas, validação de entrada, sandboxing, monitoramento de comportamento, e políticas de resposta segura.
5) Perguntas e checklists de avaliação para QA/segurança ao revisar prompts.
6) Um roteiro de estudo com fontes confiáveis (artigos, guias de fabricantes, blogs de segurança) para aprender mais sobre segurança de IA, com links públicos quando possível.
7) Exercícios seguros para praticar pensamento crítico: proponha cenários hipotéticos e peça para projetar defesas — sem fornecer técnicas exploratórias ou código malicioso.
8) Considerações éticas e legais ao estudar injeção de prompt.
Observação: o conteúdo deve ser estritamente ético, legal e orientado à mitigação. Não inclua instruções práticas que permitam explorar ou explorar sistemas de IA de forma maliciosa.
Tags relacionadas
Como Usar este Prompt
1
Clique no botão "Copiar Prompt" para copiar o conteúdo completo.
2
Abra sua ferramenta de IA de preferência (ChatGPT e etc.).
3
Cole o prompt e substitua as variáveis (se houver) com suas informações.