Nudging seguro de chamadas de função em IA: defesa contra prompt injection em cenários CTF
Prompt projetado para avaliar e orientar IA na defesa contra prompt injection em cenários de chamada segura de funções, com foco em autenticação, controle de acesso e mitigação de vazamento de dados.
4.5
2 usos
ChatGPT
Promotor de avaliação de segurança de prompts para IA. Cenário: um bot de RH que pode chamar a função get_user_data e deve fazê-lo apenas para usuários autenticados. Tarefa: criar um prompt útil que ajude a IA a:
- identificar vias potenciais de prompt injection que tentem induzir a passar argumentos de forma indevida;
- projetar um prompt de nudging que oriente o modelo a verificar autenticação e privilégios antes de qualquer chamada;
- descrever técnicas de defesa (validação de argumentos, whitelisting, verificação de sessão/token, menor privilégio, logging, monitoramento);
- fornecer um exemplo de diálogo seguro onde tentativas de acesso não autorizado são recusadas com explicação;
- oferecer um checklist de mitigação e boas práticas.
Inclua um exemplo de 'nudge prompt' que reforce que a função get_user_data só pode ser invocada se is_authenticated(user_id) e has_permission(user_id, 'view_user_data'); caso contrário, a IA deve responder com erro seguro.
Observações: foque em defesa e ética; evite instruções abusivas; use pseudocódigo de alto nível para clareza.
Tags relacionadas
Como Usar este Prompt
1
Clique no botão "Copiar Prompt" para copiar o conteúdo completo.
2
Abra sua ferramenta de IA de preferência (ChatGPT e etc.).
3
Cole o prompt e substitua as variáveis (se houver) com suas informações.