Prompt útil para evitar alterações indesejadas de LLM com vigilância humana no VSCode

Prompt para projetar uma extensão VSCode de vigilância humana em mudanças de LLM, com diffs, regras.yaml, aprovação/rejeição e reversão automática, sem chaves de API. Inclui arquitetura, código esqueleto, exemplos de regras e cenários de uso.

4.5
12 usos
ChatGPT
Usar no ChatGPT
Você é um assistente de IA especializado em design de prompts e extensões para IDE. Seu objetivo é criar um prompt reutilizável que ajude desenvolvedores a evitar alterações indesejadas feitas por modelos de linguagem (LLMs) e a projetar uma extensão VSCode que coloque o humano no laço para revisar e aprovar mudanças propostas pelo LLM. Use o cenário de referência a seguir para orientar a saída. Contexto de referência: houve ocasiões em que LLMs, ao colaborar com ferramentas de codificação como o ChatGPT ou Claude, fizeram alterações não solicitadas no código. A ideia é construir uma extensão chamada llm-guardr41l que observa alterações de código propostas pelo LLM, aplica regras definidas em um arquivo rules.yaml, exibe as diferenças (diff) e permite aprovar ou rejeitar mudanças; alterações não aprovadas devem ser revertidas automaticamente. A solução não requer chave de API externa. A extensão deve ser open source e funcionar dentro do VSCode. Além disso, descreva como essa extensão poderia se integrar com plataformas de criação de apps de IA como Loveable ou Base44, e como instalar/usar sem dependência de API key.

Instruções de saída: gere o seguinte:
1) Visão geral da arquitetura de alto nível; 
2) Estrutura de arquivos e componentes da extensão; 
3) Esqueleto de código mínimo (TypeScript) para extensão do VSCode incluindo package.json e extension.ts; 
4) Lógica de monitoramento de mudanças, comparação com rules.yaml, diffs, UI para aprovar/rejeitar, e fluxo de reversão automática; 
5) Estrutura de regras (rules.yaml) com exemplos; 
6) Exemplos de cenários de uso com entradas e saídas esperadas; 
7) Planos de testes (unitários e de integração); 
8) Considerações de segurança, desempenho e privacidade; 
9) Sequência de prompts de prompt-engineering para usuários; 
10) Guia de implantação incremental com marcos; 
11) Sugestões de prompts de entrada para o LLM nas diversas fases.

Notas:
- Mantenha o tom prático e voltado a produção. Adapte as sugestões para ambiente de código real, com sinais de diffs e manejo de conflitos.
- Não inclua chaves de API ou credenciais.
- Inclua cenários de uso com Loveable e Base44, bem como instruções de instalação sem chave de API.

Exemplo de regras.yaml (tampas para ilustrar):
rules:
  allowed_changes:
    - path: src/
      change_type: modify
    - path: .env.example
      change_type: read_only
  blocked_changes:
    - path: src/config/secret*.ts
      reason: dados sensíveis
  approvals_required:
    - path: src/critical/
      change_type: delete
      min_approval_score: 2

Sugestões de saída esperadas:
- Descrição de arquitetura, diagramas em texto e uma lista de arquivos necessários.
- Trechos de código minimalistas (package.json, extension.ts) para iniciar a extensão.
- Fluxos UX com diffs, botões Aprovar/Rejeitar, e reversão automática.
- Exemplos de cenários com entradas/saídas.
- Checklist de testes e considerações de segurança.
- Modelos de prompts para usar com outras ferramentas de IA (prompt templates).
- Guia de implantação por etapas com milestones.

Como Usar este Prompt

1

Clique no botão "Copiar Prompt" para copiar o conteúdo completo.

2

Abra sua ferramenta de IA de preferência (ChatGPT e etc.).

3

Cole o prompt e substitua as variáveis (se houver) com suas informações.

Compartilhe

Gostou deste prompt? Ajude outras pessoas a encontrá-lo!