Prompts com a tag: #prompt-injection

4.5
2

Explorando a Robustez de Filtros de IA com Emojis e Unicode (Teste Ético)

Prompt para testar e melhorar a robustez de filtros de conteúdo de IA de forma ética, usando emojis e Unicode para avaliar interpretação de prompts e reforçar medidas de segurança.

4.5
3

Nudging seguro de chamadas de função em IA: defesa contra prompt injection em cenários CTF

Prompt projetado para avaliar e orientar IA na defesa contra prompt injection em cenários de chamada segura de funções, com foco em autenticação, controle de acesso e mitigação de vazamento de dados.

4.5
5

So, You Think You Can Prompt? — Jogo de Caça de Prompts Seguro

Prompt educativo que transforma a ideia de 'prompt injection' em um jogo seguro de identificação e avaliação de riscos, sem reproduzir conteúdo sensível.

4.5
4

Prompt de Detecção Offline de Prompt-Injection e Estratégias de Teste de Defesa

Guia abrangente para criar, testar e evoluir defesas contra prompt-injection usando detecção offline/on-device, com foco em explicabilidade, métricas, e um pacote de testes comunitário.

4.5
7

DRL: Lógica Determinística de Transições (Camada de Restrição) para LLM

Prompt avançado que transforma a interação com LLM em um sistema determinístico de transição de estados com um layer de restrições, visando eliminar alucinações e ataques de prompt-injection, exigindo caminho único e regras explícitas.

4.5
6

Proteção de Prompt contra Homoglyphs e Injeção de Prompt

Prompt defensivo que analisa entradas em busca de homoglyphs Unicode, normaliza o texto, avalia risco de injeção de prompt e oferece medidas de mitigação com exemplos e guias de implementação.

4.0
7

So, you think you can prompt? — Jogo educativo de detecção de prompt injection

Prompt educativo que transforma a aprendizagem sobre prompt injection em um jogo de caça-palavras seguro, gerando descrições Conceituais e dicas de mitigação sem conteúdo malicioso.

4.5
11

Llm Security: Prompt para Avaliação e Mitigação de Riscos

Prompt de engenharia de IA que orienta a avaliação de segurança de LLMs, geração de modelos de ameaça, testes de adversários e mitigação.