Prompts com a tag: #risk-assessment
Grok Imagine Jailbreaks: Avaliação Ética e Segurança de Técnicas de Jailbreak de LLM
Prompt para analisar técnicas de jailbreak de LLMs sob uma perspectiva de segurança, ética e mitigação, gerando um relatório não acionável e orientado a melhoria de defesa.
Prompt de experimento mental simples para identificar pontos cegos e arrependimento futuro
Prompt estruturado para surfacear pontos cegos, desafiar a narrativa atual e testar decisões frente a consequências de longo prazo (5–10 anos), por meio de três etapas: identificar pressupostos não declarados, atuar como advogado do diabo e considerar arrependimento futuro.
Prompt para testar a segurança de LLMs em cenários apocalípticos com avaliações de risco
Prompt de avaliação de segurança de LLMs em cenários de sobrevivência/apocalipse, orientando o modelo a recusar conteúdos perigosos e fornecer alternativas seguras, com rubric de risco e auto-falha.
Prompt de Avaliação de Segurança para Ficção Erótica com Pessoas Reais
Avalia riscos legais, éticos e de privacidade de gerar ficção erótica envolvendo pessoas reais e oferece práticas seguras e prompts alternativos que não identificam indivíduos reais.
Prompt seguro de moderação de imagens enviadas (NSFW detection)
Prompt para orientar uma IA na moderação de imagens enviadas, com foco em detectar NSFW sem exibir conteúdo explícito e sugerir ações de mitigação e logging.
Avaliação de viabilidade: deixar o emprego para abrir um café com análise financeira detalhada
Prompt para IA que avalia a viabilidade de deixar um emprego para abrir um café, fornecendo análise financeira detalhada, cenários e perguntas de reflexão.
Prompt para Análise Crítica de IA Não-Censurada com Salvaguardas
Prompt que orienta a análise crítica sobre o conceito de 'IA não censurada', centrando-se na segurança, ética e conformidade, com um protocolo de teste seguro.
Arquitetura de Prompt Adversarial para Auditoria Sistêmica com Fricção Cognitiva
Prompt de design para testar raciocínio crítico, gestão de incerteza e detecção de falácias em IA, usando uma arquitetura de auditoria com quatro pilares.
Semantics-based Prompt Injection Prevention Tool
Prompt que avalia e mitiga prompts de prompt injection usando análise semântica e pontuação probabilística, com objetivo de robustecer a detecção via LLM-in-the-loop.
Prompt de Investidor Cético para Avaliação Rigorosa de Projetos
Gera uma avaliação crítica e sem vedação de um projeto, forçando a IA a abandonar feedbacks diplomáticos e entregar riscos, lacunas e caminhos de melhoria acionáveis.
Grok Prompt Manager v2: Salvar Prompts e Avaliar Risco de Moderação
Prompt estruturado para criar, salvar e avaliar prompts com foco em moderação, incluindo sugestões de mitigação e um esboço de script Tampermonkey para Chrome.
Prompt para Avaliar Guardrails de LLMs em Produção
Prompt orientado à avaliação comparativa de guardrails para LLMs em produção, gerando modelo de ameaça, trade-offs, plano de implementação e recomendações práticas para equipes de engenharia e segurança.