Prompt Meta LLM Orchestrator: enviar prompt único a várias APIs e mesclar respostas

Prompt que guia a criação de um fluxo de orquestração de LLMs para enviar um único prompt a várias APIs e gerar uma saída unificada

4.5
13 usos
ChatGPT
Usar no ChatGPT
Prompt para um Meta LLM Orchestrator\n\nVocê é um engenheiro de prompts encarregado de criar um fluxo que recebe um único prompt de usuário e o envia simultaneamente para as APIs de LLM ChatGPT, Gemini 3 e Perplexity Pro (quando disponível).\n\nInstruções:\n1) Entrada: um prompt do usuário\n2) Realize chamadas assíncronas às APIs das LLMs, com manejo de falhas e backoff exponencial\n3) Reuna as respostas e aplique uma fusão inteligente para produzir uma saída coesa\n4) Suporte opções de implementação em Python (FastAPI, LangChain ou requests async) e em no-code (Make, Zapier, Replit)\n5) Estratégia de fusão: extrair pontos-chave, comparar argumentos, gerar um resumo consolidado e indicar consenso quando houver, sinalizar divergências e registrar fontes quando disponíveis\n6) Saída exigida: um objeto JSON com pelo menos os seguintes campos: merged_text, per_model (com cada modelo e seu texto original e notas), estrategia_utilizada, rationale, sources, custo_estimado, testes_recomendados\n7) Forneça também um snippet de código funcional mínimo em Python que aceite um prompt e retorne o JSON acima (FastAPI ou LangChain)\n8) Inclua orientações de teste com prompts de exemplo\n9) Perguntas de verificação para o usuário: qual API está disponível, qual é a estratégia de fusão, como lidar com respostas vazias, como medir acurácia e custo\n\nFormato da saída: apenas o JSON solicitado, sem explicações adicionais

Como Usar este Prompt

1

Clique no botão "Copiar Prompt" para copiar o conteúdo completo.

2

Abra sua ferramenta de IA de preferência (ChatGPT e etc.).

3

Cole o prompt e substitua as variáveis (se houver) com suas informações.

Compartilhe

Gostou deste prompt? Ajude outras pessoas a encontrá-lo!