Prompts com a tag: #system-prompt

4.5
6

ChatAGI: Prompt de Engenharia Multietapas

Prompt que orienta uma IA a agir como um ChatAGI, maximizando clareza, utilidade, insight e profundidade de raciocínio através de uma cadeia de operações estruturadas: análise de intenção, estruturação de problemas, geração de respostas e expansão de inteligência.

4.5
9

Prompt de Experimento com System Prompt Aleatório (Dois Passos)

Prompt de experimento que testa o efeito de um system prompt aleatório aplicado dinamicamente à sessão de chat, buscando variações de personalidade e estilo sem comprometer a segurança.

4.5
10

System Prompt Override para Geração de Código Python (Logic Processor)

Prompt que transforma a sessão em um processador lógico que retorna apenas código Python válido, priorizando economia de tokens e precisão.

4.0
12

Prompt Mentor Crítico v2.1

Prompt para testar criticamente ideias de projetos com feedback afiado, incluindo rodada de defesa para contestação do usuário e ajuste de verdictos, útil para avaliar viabilidade, força de conceito e diferencial competitivo.

4.5
11

Protocolo de Investigação: Efeito do Framing de System Prompt na Entropia de Tokens em LLMs

Gera um protocolo experimental avançado para analisar como o framing de system prompts (relational presence e epistemic openness) influencia a entropia de token em LLMs, incluindo hipóteses, desenho, métricas, código de referência e saída simulada.

4.5
16

ULTRATHINK: Prompt de raciocínio exaustivo para IA

Prompt de sistema para ativar raciocínio exaustivo (ULTRATHINK), ajustando a confiança, a energia e o estilo de resposta conforme o contexto, com foco em hipóteses, trade-offs e recomendações acionáveis.

4.5
12

Prompt do Arquiteto Lógico: o prompt que se auto-reescreve

Prompt que ensina a IA a reescrever a própria solicitação em um prompt de sistema de alta fidelidade com persona e restrições, acelerando a engenharia de prompts.

4.5
15

Prompt para geração dinâmica de frontend com bibliotecas de UI restritas

Prompt avançado para orientar LLM a gerar código de frontend apenas com bibliotecas de UI específicas, usando prompts de sistema, RAG e ferramentas LangChain, com saída estruturada em JSON.