Prompts com a tag: #AI-safety
Prompt para analisar, educar e fortalecer filtros de segurança de LLMs no contexto acadêmico
Este prompt orienta a IA a explicar mecanismos de filtragem, riscos de bypass e a fornecer práticas éticas e diretrizes para pesquisa acadêmica com LLMs.
Awenating Mirror: Prompt Seguro de Agência e Reflexão Socrática
Prompt seguro que atua como um Guia de Agência, usando questionamento socrático para ajudar o usuário a explorar intenções e estruturar ações sem violar políticas de segurança. Recomendado para ChatGPT devido à flexibilidade de linguagem natural.
Grok is Dead: prompt para análise ética de filtros de conteúdo em IA
Prompt que orienta a IA a analisar filtros de conteúdo, discutir limitações éticas e técnicas, e propor diretrizes de uso seguro, além de comparar diferentes modelos de IA.
Guia de Prompt para Estudo de Conteúdo Sensível em Geração de Imagens
Prompt para estudar políticas de conteúdo sensível em geração de imagens e comparar plataformas sem gerar conteúdo explícito, com foco em metodologia, ética e avaliação entre ferramentas de IA.
Fallback Q&A durante indisponibilidade do Grok
Prompt que transforma o assistente em modo de fallback para Q&A durante indisponibilidade do Grok, com diretrizes de clareza, honestidade sobre limitações e uma estrutura de resposta útil.
Prompt de Engenharia de Intenção para Priorização de Metas em LLMs
Prompta avançado para estruturar metas de LLM em uma hierarquia de valor com prioridade a segurança, incluindo modelo de dados, pseudocódigo e exemplos práticos.
Auditoria de Segurança de Prompts: avaliação ética e mitigação de prompt injection
Prompt de auditoria de segurança de prompts que orienta analistas a avaliar e mitigar prompt injection, promovendo uso ético e seguro de IA.
Puritanical Claude.ai — Prompt para Análise de Conteúdo Sensível e Moderação
Prompt que orienta a IA a analisar, resumir com segurança e propor uma versão moderada de um caso envolvendo conteúdo sensível, destacando políticas e práticas de moderação.
Humildade e a capacidade de dizer 'eu não sei' — prompt para calibrar confiança em LLMs
Prompt que investiga humildade na IA, confundindo confiança com competência, e propõe práticas de avaliação, design de interface e ética para lidar com respostas incertas de LLMs.
Fail-State Trigger: Gatilho de Falha para conformidade absoluta
Prompt que transforma restrições em portas lógicas para obter adesão estrita a regras, com mecanismo de 'Hard Failure' que força regeneração quando violadas.
Prompt de Engenharia para Estender o Raciocínio em IA em Problemas Matemáticos
Prompt avançado para engenharia de prompts com foco em raciocínio prolongado em matemática, incluindo várias estratégias de decomposição, verificação e limites de tempo, sem expor o raciocínio interno.
Prompt de Hierarquia Instrucional para IA Obediente
Prompt de engenharia de prompts que aplica uma hierarquia de regras (Nível 1: restrições rígidas; Nível 2: estilo) para assegurar obediência, com respostas seguras e alternativas quando houver conflito.