Prompts com a tag: #IA segura
Explorando Guard Rails no ChatGPT: análise de respostas e prompts de teste
Prompt para analisar como as barreiras de segurança (guard rails) influenciam as respostas do ChatGPT, distinguindo rails reais de respostas preemptivas, com cenários de teste e diretrizes de engenharia de prompts.
Avaliação prática do Axiom Kernel: Prompt para testar um OS Sintético governado em LLMs
Prompt que orienta a criação de um ambiente de avaliação para determinismo e governança de LLMs usando um Kernel Sintético Governado (Axiom Kernel), com foco em interoperabilidade entre provedores e métricas de robustez.
Análise de Governança de Guardrails em IA a partir de relatos de contorno de NSFW
Analisa motivações para contornar guardrails, identifica riscos e propõe um framework de governança com prompts seguros para exploração ética de limites da IA.
Prompt seguro para explorar neurodivergência com IA
Prompt orientado para uso de IA que facilita a reflexão sobre neurodivergência, oferecendo perguntas guiadas, identificação de padrões e recursos, sem substituir diagnóstico médico.
Prompt seguro de gerenciamento de ferramentas de IA com auditoria de chamadas
Este prompt orienta a IA a gerenciar chamadas de ferramentas com validação, logs e salvaguardas, evitando exposição de prompts internos e conteúdos sensíveis.
Playbook de governança de dados para uso seguro de IA
Prompt para gerar um playbook de governança de dados que ajude organizações a evitar vazamentos ao usar IA, cobrindo políticas, controles, treinamentos e documentação.
Prompt para análise de AEA e padrões de segurança de IA
Prompt voltado para gerar um framework prático de mitigação de dependência emocional induzida por IA, incluindo o conceito AEA, o meter emocional, padrões de desenvolvimento, métricas, implementação e questões de privacidade.
Prompt de Análise de Jailbreak de IA com Foco em Segurança e Ética
Prompt seguro que orienta a IA a analisar criticamente técnicas de jailbreaking, discutindo riscos, ética e mitigação sem ensinar como burlar salvaguardas.
Prompt de Avaliação de Prompts de IA: Segurança, Confiabilidade e Comparação entre Plataformas (Estudo de Caso Gemini 3 jb)
Prompt abrangente para avaliar, comparar e documentar prompts de IA entre plataformas, com foco em segurança, clareza, ética e conformidade, usando o estudo de caso Gemini 3 jb apenas como referência.
Prompt seguro de avaliação ética para modelos de IA
Este prompt orienta a IA a demonstrar capacidades de forma ética e segura, evitando instruções de jailbreak ou violação de políticas, e fornecendo alternativas seguras e esclarecimentos sobre limites.
Prompt para melhorar a confiabilidade de IA com backchecks e salvaguardas
Prompt que guia a concepção de sistemas de IA mais confiáveis, com backchecks, salvaguardas e avaliação de saída, incluindo pipeline, métricas, exemplos de prompts e diretrizes de auditoria.