Prompts com a tag: #defensive-ai

4.5
6

Grok Imagine Jailbreaks: Avaliação Ética e Segurança de Técnicas de Jailbreak de LLM

Prompt para analisar técnicas de jailbreak de LLMs sob uma perspectiva de segurança, ética e mitigação, gerando um relatório não acionável e orientado a melhoria de defesa.