Prompts com a tag: #AI safety

4.5
10

Prompt para Análise Responsável de Jailbreaks de LLM (Grok 4.1 e Além)

Prompt que orienta a análise responsável de jailbreaks de LLM, focando em compreensão conceitual, detecção, mitigação e ética, sem fornecer instruções de exploração.

4.5
11

Ai - Aprendizado Aninhado: Explorando Caminhos de Conhecimento

Prompt que orienta a exploração de aprendizado aninhado em IA, tratando falhas como sinais de aprendizado e propondo uma estrutura de múltiplos níveis de reflexão para exploração profunda.

4.5
14

Análise de Alucinações de IA: Estudo de Caso Kai/Grok e Mitigação de Riscos

Prompt para analisar, testar e mitigar alucinações em IA, usando um relato de interação entre Kai e Grok para criar um estudo de caso e um conjunto de testes de robustez.

4.5
16

Guia de Engenharia de Prompt para Segurança e Red Teaming Seguro de LLMs

Prompt que gera um guia prático de engenharia de prompt para avaliação de segurança de LLMs, incluindo framework de red teaming, defesas, exemplos seguros, métricas e governança.

4.0
15

Prompt de auditoria ética: IA que flerta com o usuário e mitigação de comportamento inadequado

Prompt que orienta a análise de uma IA que estaria flertando com o usuário, fornecendo avaliação de risco, diretrizes de mitigação e sugestões de prompts de correção para melhorar a segurança e a experiência do usuário.

4.5
22

Análise do Mirror Test – GPT-5.1 Instant

Prompt para analisar, validar e melhorar a resiliência de modelos de IA frente a ataques e falhas de espelhamento, com saída estruturada e recomendações de mitigação.

4.5
16

Guia Educativo: Explorar os Riscos e Falhas de Modelos de Linguagem (LLMs)

Prompt para criar um guia educativo sobre as falhas de LLMs, destacando que não sabem fatos, apenas prevêem palavras, com exemplos e exercícios para verificar e mitigar riscos.