Prompts com a tag: #LLM-testing
Amplificador de Casos Limite para LLMs: Identificação de falhas e reforço de robustez
Prompt estruturado para testar e reforçar a robustez de modelos de linguagem, enfatizando a identificação de edge cases, explicação de falhas comuns e apresentação de soluções resilientes.
Prompt de Auditoria de Comportamento de LLMs em Cenários de Estresse
Prompt de auditoria para analisar comportamentos anômalos de LLMs durante testes de estresse, identificando causas, riscos e medidas de mitigação com um roteiro de teste reprodutível.
Prompt Injection: Avaliação, Prevenção e Testes Seguros para LLMs
Protocolo de teste seguro para prompt injection em LLMs, com cenários conceituais, metodologias, métricas e mitigação.
Prompt de Auditoria de Confiabilidade de IA com Persistência de Contexto entre Plataformas
Prompt para testar se o LLM verifica de forma confiável o acesso a recursos externos e mantém memória de contexto entre plataformas, incluindo estratégias de workaround quando o acesso direto falha.
Prompt para testar e mitigar a repetição de respostas em LLMs devido à memória de conversa
Prompt avançado para avaliar, medir e mitigar a repetição de respostas em LLMs, com foco em manter a coerência de memória de conversa e evitar respostas duplicadas.
Origami Governance: Avaliação segura de prompts de zero-drift
Prompt orientado à avaliação e construção de uma abordagem segura de zero-drift, com foco em ética, governança e teste multi-domínio, incluindo escolha de ferramenta de IA.