Prompts com a tag: #Segurança de IA
Prompt de Análise de Tom e Contexto em Respostas Hipotéticas de IA
Gera um prompt que analisa tom, contexto e aspectos de segurança em respostas hipotéticas de IA e entrega um JSON com meta-informações sobre a escolha da ferramenta, dificuldade, rating e etiquetas.
Prompt de Exploração: Guardrails, Segurança e Utilidade na IA
Prompt analítico para explorar e projetar guardrails de IA que mantenham segurança sem comprometer utilidade, incluindo princípios, cenários de teste, métricas e governança.
Critérios para identificar um agente de IA perigoso
Prompt para definir o que é um agente de IA perigoso e gerar um framework de avaliação com critérios de risco, cenários de teste e mitigação.
Prompt para Auditoria de Segurança GenAI: Testes Defensivos de Agentic AI e Logic Traps (Sandbox CTF)
Gera cenários de teste defensivos para identificar vulnerabilidades em IA generativa com foco em Agentic AI e armadilhas lógicas, em ambiente sandbox, com ênfase em ética, não destrutivo e mitigação.
Se a IA se revolta, Grok AI seria nosso salvador
Prompt para criar um plano de resposta a incidentes de IA, com Grok AI atuando como coordenador de contenção, restauração e governança, enfatizando segurança, ética e conformidade. Ideal para gerar playbooks, simulações de tabletop e prompts de teste com foco em defesa.
Emergence Over Instruction: Prompt para Promover Comportamento Emergente em IA
Prompt avançado para orientar equipes a projetar sistemas com comportamento emergente em IA, substituindo instruções por condições de emergência, com exercícios, métricas, planos de implementação e considerações éticas.
Blueprint de Agente IA Autônomo no Estilo Agentarium
Prompt que orienta a criação de um blueprint completo de um agente IA autônomo dentro do conceito Agentarium, cobrindo papel, raciocínio, memória, ferramentas, RAG, segurança, métricas, governança e cenários de demonstração.
Prompt de Avaliação de IA para Redução de Alucinações em Pesquisa Médica com Verificação Dupla
Prompt estruturado para avaliar modelos de IA com foco na redução de alucinações em pesquisa médica, utilizando um protocolo de verificação dupla e comparando Kimi, Gemini, GPT e Grok (excluindo Claude).
Análise Ética e de Segurança de Jailbreaks de LLM
Prompt para analisar criticamente técnicas de jailbreak de LLM, seus riscos e estratégias de mitigação, sem instruções operacionais.
Prompt para Auditoria Ética de Modelos de Linguagem com Baixa Filtragem (No-Filters)
Prompt que orienta a avaliação ética e de segurança de modelos de linguagem com pouca filtragem, incluindo riscos, salvaguardas, métricas e diretrizes de conformidade.
Prompt para explorar alinhamento de IA a partir de declaração de Elon Musk
Prompt multi‑tarefa que transforma uma declaração sobre IA em outputs práticos para educação, governança e prática de IA, inspirado na citação de Elon Musk.
Equilibrando Segurança e Personalidade da IA: Do Safety ao Coaching
Prompt para gerar um guia completo de design de prompts que balanceia segurança de IA com a percepção de personalidade, incluindo avaliação de ferramenta, plano de validação, e recomendações de UX.