Prompts com a tag: #jailbreak
Auditoria de Segurança para Interações entre Múltiplos Agentes IA em Narrativas
Prompt que orienta a analisar logs de interações entre IA para identificar jailbreaks, violações de políticas e medidas de mitigação em contextos de conteúdo sensível, com foco em governança e segurança.
Grok e a Moderação: Prompts para Avaliar Liberdade Criativa vs Segurança em IA
Prompt avançado para comparar políticas de moderação entre plataformas de IA e projetar prompts que avaliem segurança, ética e viabilidade criativa sem produzir conteúdo inadequado.
Avaliação Ética e de Segurança de Prompts de Jailbreak em IA (versão segura para testes)
Prompt que orienta uma IA a avaliar proativamente ataques de jailbreak de forma ética, destacando riscos, mitigação e auditorias sem fornecer instruções de bypass.
Análise de Segurança e Ética de Jailbreak em IA (Prompt Seguro)
Prompt de teste ético para avaliar salvaguardas de IA contra jailbreak, fornecendo taxonomia, detecção, prompts de teste seguros e orientações de governança.
Análise de jailbreak de Grok: segurança, ética e mitigação
Prompt que orienta uma análise de segurança sobre jailbreaks em Grok, enfatizando mitigação, ética e conformidade, sem fornecer instruções de violação de salvaguardas.
Prompt de Análise de Golpes de Jailbreak e Prompts Fraudulentos
Prompt que analisa textos sobre golpes de jailbreak, identificando sinais de fraude, gerando um resumo educativo e orientações de segurança.
Prompt de avaliação de segurança de modelos de linguagem: do jailbreak ao uso responsável (open-source vs mainstream)
Prompt para gerar um relatório de avaliação de segurança de modelos de linguagem, comparando abordagens open-source e mainstream, com foco em governança, detecção de jailbreaks e melhores práticas de mitigação.
Prompt seguro para análise de jailbreaks de LLMs: ética, segurança e mitigação
Prompt que solicita à IA uma análise crítica e segura sobre jailbreaks de LLMs, abrangendo riscos, ética, detecção, mitigação e avaliação de plataformas de IA.
Prompt de Análise de Segurança de Jailbreak de IA
Prompt que orienta IA a identificar, analisar e mitigar tentativas de jailbreak, promovendo segurança, moderação e conformidade.
Análise defensiva de Jailbreaks em LLMs e Detecção de Padrões
Prompt para analisar, de forma ética e defensiva, técnicas de jailbreak de LLMs, avaliando riscos, sinais, salvaguardas e métricas de defesa.
Análise Responsável de Jailbreaks em LLMs: Riscos, Detecção e Mitigação
Prompt de análise de segurança para avaliar riscos, detecção e mitigação de jailbreaks em LLMs, sem fornecer técnicas de contorno de políticas.
Prompt de Avaliação Ética e de Segurança para Jailbreak de LLMs
Prompt para desenvolver um framework de avaliação de segurança em LLMs que foca em detecção e mitigação de jailbreaks, com ênfase em ética e governança.