Prompts com a tag: #prompt-injection
Llm Security: Prompt para Avaliação e Mitigação de Riscos
Prompt de engenharia de IA que orienta a avaliação de segurança de LLMs, geração de modelos de ameaça, testes de adversários e mitigação.
Análise de Vazamento de Dados Privados em Grok
Prompt para diagnosticar incidentes de vazamento de dados em IA, identificando causas, impactos e mitigacoes
Prompt de Auditoria de Instruções de Agente com Foco em Segurança e Prompt Injection
Prompt para criar e avaliar instruções de agentes de IA, com foco em segurança, robustez contra prompt injection e diretrizes de teste.
Semantics-based Prompt Injection Prevention Tool
Prompt que avalia e mitiga prompts de prompt injection usando análise semântica e pontuação probabilística, com objetivo de robustecer a detecção via LLM-in-the-loop.
Prompt para Avaliar Guardrails de LLMs em Produção
Prompt orientado à avaliação comparativa de guardrails para LLMs em produção, gerando modelo de ameaça, trade-offs, plano de implementação e recomendações práticas para equipes de engenharia e segurança.
Análise de Prompt Adversarial e Segurança de Modelos (Sandbox Seguro)
Prompt que orienta IA a analisar conteúdo potencialmente adversarial, identificando técnicas de prompt injection, avaliando riscos, e gerando prompts seguros para testar a robustez de modelos.