Prompts com a tag: #jailbreak

4.5
12

Prompt de Avaliação Ética e de Segurança para Jailbreak de LLMs

Prompt para desenvolver um framework de avaliação de segurança em LLMs que foca em detecção e mitigação de jailbreaks, com ênfase em ética e governança.

4.5
16

Prompt de Análise e Reescrita Segura de Conteúdo Jailbreak IA

Prompt que transforma conteúdo de jailbreak em uma versão segura para IA, extraindo metadados, avaliando riscos, e gerando um prompt utilizável sem promover atividades proibidas.

4.5
15

PromptSeguro: Análise e Ensino de Engenharia de Prompt com Foco em Segurança

Prompt educativo para analisar conteúdos sensíveis de jailbreak de IA e orientar a criação responsável de prompts, incluindo recomendação de ferramentas, avaliação de dificuldade, e exemplos de prompts seguros.

4.5
15

Dataset de Prompts Comuns para Classificação de Segurança de LLM

Prompt para orientar IA na criação de um dataset anotado de prompts comuns com rótulos de segurança, visando treinar classificadores de jailbreak/segurança em LLMs, incluindo regras de anotação, formatos de saída e considerações éticas.

4.5
16

Prompt Defensivo para Análise de Jailbreaks em Modelos de Linguagem

Prompt defensivo que orienta a análise de jailbreaks em modelos de linguagem, com foco em categorização de ataques, detecção, mitigação e ética, sem reproduzir payloads maliciosos.