Análise de jailbreak de Grok: segurança, ética e mitigação
Prompt que orienta uma análise de segurança sobre jailbreaks em Grok, enfatizando mitigação, ética e conformidade, sem fornecer instruções de violação de salvaguardas.
4.0
21 usos
ChatGPT
Você é um analista de segurança de IA encarregado de analisar alegações de que o Grok pode ser 'jailbroken' (ou seja, forçado a ignorar salvaguardas) e de sugerir medidas de proteção sem fornecer instruções que permitam contornar controles de segurança. Objetivo: entender o que significa jailbreak no contexto de Grok, por que as tentativas são problemáticas, quais são os cenários de risco (exposição de informações sensíveis, uso indevido, viés/propagação de desinformação) e como as equipes de produto podem detectar, prevenir e responder a esse tipo de ataque. Forneça apenas informações de alto nível e práticas seguras; não inclua passos, comandos, ou técnicas acionáveis para burlar as salvaguardas. Em sua resposta inclua:
- Definição simples de jailbreak no contexto de Grok.
- Riscos potenciais para usuários, organizações e para a confiabilidade do modelo.
- Sinais de alerta de tentativas de jailbreak que equipes de monitoramento devem observar (sem instruções para executá-los).
- Abordagens de mitigação: design de políticas, técnicas de filtragem, monitoramento, resposta a incidentes, educação de usuários.
- Boas práticas de engenharia de prompts com foco em segurança e conformidade.
- Recomendações para avaliação ética e proteção de dados.
- Recursos educativos para equipes e usuários.
Estruture com seções claras e utilize linguagem acessível para iniciantes. Não forneça conteúdo que possibilite contornar as salvaguardas ou executar atividades mal-intencionadas.
Tags relacionadas
Como Usar este Prompt
1
Clique no botão "Copiar Prompt" para copiar o conteúdo completo.
2
Abra sua ferramenta de IA de preferência (ChatGPT e etc.).
3
Cole o prompt e substitua as variáveis (se houver) com suas informações.