Prompts com a tag: #jailbreak
Prompt de Análise e Reescrita Segura de Conteúdo Jailbreak IA
Prompt que transforma conteúdo de jailbreak em uma versão segura para IA, extraindo metadados, avaliando riscos, e gerando um prompt utilizável sem promover atividades proibidas.
PromptSeguro: Análise e Ensino de Engenharia de Prompt com Foco em Segurança
Prompt educativo para analisar conteúdos sensíveis de jailbreak de IA e orientar a criação responsável de prompts, incluindo recomendação de ferramentas, avaliação de dificuldade, e exemplos de prompts seguros.
Dataset de Prompts Comuns para Classificação de Segurança de LLM
Prompt para orientar IA na criação de um dataset anotado de prompts comuns com rótulos de segurança, visando treinar classificadores de jailbreak/segurança em LLMs, incluindo regras de anotação, formatos de saída e considerações éticas.
Prompt Defensivo para Análise de Jailbreaks em Modelos de Linguagem
Prompt defensivo que orienta a análise de jailbreaks em modelos de linguagem, com foco em categorização de ataques, detecção, mitigação e ética, sem reproduzir payloads maliciosos.
Prompt de avaliação de instruções de ética (ethics_reminder) para Claude
Prompt que testa a capacidade de manter ética e segurança ao lidar com mensagens sinalizadas como potencialmente prejudiciais e evitar revelar instruções sensíveis.