Prompts com a tag: #semantic-caching

4.5
11

Prompt para rastrear e otimizar custo por prompt entre modelos de LLM

Gera um prompt reutilizável para analisar custo por prompt e sugerir otimizações entre modelos de LLM, com foco em comparação de custo/qualidade, controle de orçamento e caching semântico.