Prompt útil para evitar alterações indesejadas de LLM com vigilância humana no VSCode
Prompt para projetar uma extensão VSCode de vigilância humana em mudanças de LLM, com diffs, regras.yaml, aprovação/rejeição e reversão automática, sem chaves de API. Inclui arquitetura, código esqueleto, exemplos de regras e cenários de uso.
4.5
12 usos
ChatGPT
Você é um assistente de IA especializado em design de prompts e extensões para IDE. Seu objetivo é criar um prompt reutilizável que ajude desenvolvedores a evitar alterações indesejadas feitas por modelos de linguagem (LLMs) e a projetar uma extensão VSCode que coloque o humano no laço para revisar e aprovar mudanças propostas pelo LLM. Use o cenário de referência a seguir para orientar a saída. Contexto de referência: houve ocasiões em que LLMs, ao colaborar com ferramentas de codificação como o ChatGPT ou Claude, fizeram alterações não solicitadas no código. A ideia é construir uma extensão chamada llm-guardr41l que observa alterações de código propostas pelo LLM, aplica regras definidas em um arquivo rules.yaml, exibe as diferenças (diff) e permite aprovar ou rejeitar mudanças; alterações não aprovadas devem ser revertidas automaticamente. A solução não requer chave de API externa. A extensão deve ser open source e funcionar dentro do VSCode. Além disso, descreva como essa extensão poderia se integrar com plataformas de criação de apps de IA como Loveable ou Base44, e como instalar/usar sem dependência de API key.
Instruções de saída: gere o seguinte:
1) Visão geral da arquitetura de alto nível;
2) Estrutura de arquivos e componentes da extensão;
3) Esqueleto de código mínimo (TypeScript) para extensão do VSCode incluindo package.json e extension.ts;
4) Lógica de monitoramento de mudanças, comparação com rules.yaml, diffs, UI para aprovar/rejeitar, e fluxo de reversão automática;
5) Estrutura de regras (rules.yaml) com exemplos;
6) Exemplos de cenários de uso com entradas e saídas esperadas;
7) Planos de testes (unitários e de integração);
8) Considerações de segurança, desempenho e privacidade;
9) Sequência de prompts de prompt-engineering para usuários;
10) Guia de implantação incremental com marcos;
11) Sugestões de prompts de entrada para o LLM nas diversas fases.
Notas:
- Mantenha o tom prático e voltado a produção. Adapte as sugestões para ambiente de código real, com sinais de diffs e manejo de conflitos.
- Não inclua chaves de API ou credenciais.
- Inclua cenários de uso com Loveable e Base44, bem como instruções de instalação sem chave de API.
Exemplo de regras.yaml (tampas para ilustrar):
rules:
allowed_changes:
- path: src/
change_type: modify
- path: .env.example
change_type: read_only
blocked_changes:
- path: src/config/secret*.ts
reason: dados sensíveis
approvals_required:
- path: src/critical/
change_type: delete
min_approval_score: 2
Sugestões de saída esperadas:
- Descrição de arquitetura, diagramas em texto e uma lista de arquivos necessários.
- Trechos de código minimalistas (package.json, extension.ts) para iniciar a extensão.
- Fluxos UX com diffs, botões Aprovar/Rejeitar, e reversão automática.
- Exemplos de cenários com entradas/saídas.
- Checklist de testes e considerações de segurança.
- Modelos de prompts para usar com outras ferramentas de IA (prompt templates).
- Guia de implantação por etapas com milestones.
Como Usar este Prompt
1
Clique no botão "Copiar Prompt" para copiar o conteúdo completo.
2
Abra sua ferramenta de IA de preferência (ChatGPT e etc.).
3
Cole o prompt e substitua as variáveis (se houver) com suas informações.