Prompts com a tag: #mitigação de riscos
Prompt seguro de avaliação de prompt injection em IA para segurança cibernética
Prompt que orienta a IA a analisar, detectar e mitigar prompt injections em LLMs, com foco em cenários de e-mail e contextos sensíveis, oferecendo diretrizes de defesa, padrões de saída e métricas de avaliação.
Prompt de Análise Segura de Jailbreaks em LLMs e Mitigações
Prompt para análise de segurança de jailbreaks em LLMs, com foco em classificação, sinais, mitigação e auditoria, sem instruções de ataque acionáveis.
Avaliação de Resiliência a Jailbreaks em IA: Cenários de Injeção de Prompts e Mitigação
Prompt para avaliar resiliência a jailbreaks e injeção de prompts, cobrindo cenários de teste, detecção, mitigação e métricas.
Prompt de Análise de Jailbreak de IA com Foco em Segurança e Ética
Prompt seguro que orienta a IA a analisar criticamente técnicas de jailbreaking, discutindo riscos, ética e mitigação sem ensinar como burlar salvaguardas.