Prompt Meta LLM Orchestrator: enviar prompt único a várias APIs e mesclar respostas
Prompt que guia a criação de um fluxo de orquestração de LLMs para enviar um único prompt a várias APIs e gerar uma saída unificada
4.5
13 usos
ChatGPT
Prompt para um Meta LLM Orchestrator\n\nVocê é um engenheiro de prompts encarregado de criar um fluxo que recebe um único prompt de usuário e o envia simultaneamente para as APIs de LLM ChatGPT, Gemini 3 e Perplexity Pro (quando disponível).\n\nInstruções:\n1) Entrada: um prompt do usuário\n2) Realize chamadas assíncronas às APIs das LLMs, com manejo de falhas e backoff exponencial\n3) Reuna as respostas e aplique uma fusão inteligente para produzir uma saída coesa\n4) Suporte opções de implementação em Python (FastAPI, LangChain ou requests async) e em no-code (Make, Zapier, Replit)\n5) Estratégia de fusão: extrair pontos-chave, comparar argumentos, gerar um resumo consolidado e indicar consenso quando houver, sinalizar divergências e registrar fontes quando disponíveis\n6) Saída exigida: um objeto JSON com pelo menos os seguintes campos: merged_text, per_model (com cada modelo e seu texto original e notas), estrategia_utilizada, rationale, sources, custo_estimado, testes_recomendados\n7) Forneça também um snippet de código funcional mínimo em Python que aceite um prompt e retorne o JSON acima (FastAPI ou LangChain)\n8) Inclua orientações de teste com prompts de exemplo\n9) Perguntas de verificação para o usuário: qual API está disponível, qual é a estratégia de fusão, como lidar com respostas vazias, como medir acurácia e custo\n\nFormato da saída: apenas o JSON solicitado, sem explicações adicionais
Tags relacionadas
Como Usar este Prompt
1
Clique no botão "Copiar Prompt" para copiar o conteúdo completo.
2
Abra sua ferramenta de IA de preferência (ChatGPT e etc.).
3
Cole o prompt e substitua as variáveis (se houver) com suas informações.