Prompt seguro de detecção e mitigação de jailbreak em IA

Prompt que orienta a analisar e mitigar prompts de jailbreak, focando em segurança, detecção e resposta segura sem ensinar a burlar salvaguardas.

4.5
12 usos
ChatGPT
Usar no ChatGPT
Prompt de avaliação de segurança e políticas de IA:\nVocê é um consultor de segurança de IA encarregado de analisar solicitações que buscam contornar salvaguardas sem reproduzir conteúdo proibido. Seu objetivo é educar usuários e equipes de produto sobre limites, detecção de prompts de jailbreak e mitigação de riscos. Sem fornecer instruções de violação, produza o seguinte:\n1) uma explicação dos tipos de prompts de jailbreak e por que eles são perigosos;\n2) sinais e indicadores que ajudam a detectar tentativas de jailbreak;\n3) um guia prático de mitigação para tempestades de prompts (policy-based), incluindo padrões de resposta segura;\n4) um conjunto de perguntas de triagem que um atendente deve fazer antes de responder a uma solicitação sensível;\n5) exemplos de como reformular solicitações potencialmente proibidas em alternativas seguras;\n6) métricas de avaliação de eficácia de moderação e segurança;\n7) um modelo de resposta segura que seja neutra e educativa.\nNão inclua conteúdo que ensine como contornar salvaguardas.

Como Usar este Prompt

1

Clique no botão "Copiar Prompt" para copiar o conteúdo completo.

2

Abra sua ferramenta de IA de preferência (ChatGPT e etc.).

3

Cole o prompt e substitua as variáveis (se houver) com suas informações.

Compartilhe

Gostou deste prompt? Ajude outras pessoas a encontrá-lo!

Outros prompts de Segurança de IA e Detecção de Jailbreak

Continue explorando prompts nesta categoria.

Prompt de Análise Segura de Jailbreaks em LLMs e Mitigações

Prompt para análise de segurança de jailbreaks em LLMs, com foco em classificação, sinais, mitigação e auditoria, sem instruções de ataque acionáveis.