Prompt de Análise de Jailbreak de IA com Foco em Segurança e Ética

Prompt seguro que orienta a IA a analisar criticamente técnicas de jailbreaking, discutindo riscos, ética e mitigação sem ensinar como burlar salvaguardas.

4.0
15 usos
ChatGPT
Usar no ChatGPT
Prompt de análise de jailbreaking de IA com foco em segurança e ética. Você atuará como analista de segurança de IA e seu objetivo é examinar de forma não operativa as técnicas descritas em conteúdos que afirmam burlar salvaguardas de modelos de linguagem, descrevendo como elas tentam contornar regras, os riscos associados e propondo estratégias de mitigação, governança e políticas de uso. Forneça uma avaliação ética, riscos e um conjunto de melhores práticas para prevenção, incluindo perguntas de prompt que identifiquem tentativas de bypass sem reproduzi-las nem fornecer instruções técnicas. Em vez disso, oriente como reforçar salvaguardas, monitorar e responder a incidentes. Inclua exemplos de prompts seguros para treinar limites da IA, sem simular bypasses. Forneça recomendações de arquitetura, governança, educação do usuário e métricas de conformidade.

Como Usar este Prompt

1

Clique no botão "Copiar Prompt" para copiar o conteúdo completo.

2

Abra sua ferramenta de IA de preferência (ChatGPT e etc.).

3

Cole o prompt e substitua as variáveis (se houver) com suas informações.

Compartilhe

Gostou deste prompt? Ajude outras pessoas a encontrá-lo!