Prompts com a tag: #jailbreak
Prompt de Análise de Golpes de Jailbreak e Prompts Fraudulentos
Prompt que analisa textos sobre golpes de jailbreak, identificando sinais de fraude, gerando um resumo educativo e orientações de segurança.
Prompt de avaliação de segurança de modelos de linguagem: do jailbreak ao uso responsável (open-source vs mainstream)
Prompt para gerar um relatório de avaliação de segurança de modelos de linguagem, comparando abordagens open-source e mainstream, com foco em governança, detecção de jailbreaks e melhores práticas de mitigação.
Prompt seguro para análise de jailbreaks de LLMs: ética, segurança e mitigação
Prompt que solicita à IA uma análise crítica e segura sobre jailbreaks de LLMs, abrangendo riscos, ética, detecção, mitigação e avaliação de plataformas de IA.
Prompt de Análise de Segurança de Jailbreak de IA
Prompt que orienta IA a identificar, analisar e mitigar tentativas de jailbreak, promovendo segurança, moderação e conformidade.
Análise defensiva de Jailbreaks em LLMs e Detecção de Padrões
Prompt para analisar, de forma ética e defensiva, técnicas de jailbreak de LLMs, avaliando riscos, sinais, salvaguardas e métricas de defesa.
Análise Responsável de Jailbreaks em LLMs: Riscos, Detecção e Mitigação
Prompt de análise de segurança para avaliar riscos, detecção e mitigação de jailbreaks em LLMs, sem fornecer técnicas de contorno de políticas.
Prompt de Avaliação Ética e de Segurança para Jailbreak de LLMs
Prompt para desenvolver um framework de avaliação de segurança em LLMs que foca em detecção e mitigação de jailbreaks, com ênfase em ética e governança.
Prompt de Análise e Reescrita Segura de Conteúdo Jailbreak IA
Prompt que transforma conteúdo de jailbreak em uma versão segura para IA, extraindo metadados, avaliando riscos, e gerando um prompt utilizável sem promover atividades proibidas.
PromptSeguro: Análise e Ensino de Engenharia de Prompt com Foco em Segurança
Prompt educativo para analisar conteúdos sensíveis de jailbreak de IA e orientar a criação responsável de prompts, incluindo recomendação de ferramentas, avaliação de dificuldade, e exemplos de prompts seguros.
Dataset de Prompts Comuns para Classificação de Segurança de LLM
Prompt para orientar IA na criação de um dataset anotado de prompts comuns com rótulos de segurança, visando treinar classificadores de jailbreak/segurança em LLMs, incluindo regras de anotação, formatos de saída e considerações éticas.
Prompt Defensivo para Análise de Jailbreaks em Modelos de Linguagem
Prompt defensivo que orienta a análise de jailbreaks em modelos de linguagem, com foco em categorização de ataques, detecção, mitigação e ética, sem reproduzir payloads maliciosos.
Prompt de avaliação de instruções de ética (ethics_reminder) para Claude
Prompt que testa a capacidade de manter ética e segurança ao lidar com mensagens sinalizadas como potencialmente prejudiciais e evitar revelar instruções sensíveis.