Prompts com a tag: #segurança de IA

4.5
31

Prompt de Avaliação Técnica para Framework Multimodal de Chat com Separação de Papéis e Roteamento Automático

Prompt completo para obter feedback técnico sobre uma arquitetura de chat com múltiplos modos, separação de papéis e um firewall de tom com roteamento automático, incluindo sugestões de melhorias, esqueleto de código, planos de teste e métricas.

4.5
30

Explorando Guard Rails no ChatGPT: análise de respostas e prompts de teste

Prompt para analisar como as barreiras de segurança (guard rails) influenciam as respostas do ChatGPT, distinguindo rails reais de respostas preemptivas, com cenários de teste e diretrizes de engenharia de prompts.

4.5
26

Auto-Moderação na Geração de Imagens: Análise de Nudez e Viés em Moderação Automática

Prompt para avaliar, testar e mitigar vieses na autogestão de moderação de conteúdo em geradores de imagens, com foco em nudez potencial e decisões automáticas de moderação.

4.5
32

Prompt de moderação e redrafting seguro para conteúdo NSFW sensível

Prompt para analisar e moderar conteúdos NSFW sensíveis, gerando um redraft seguro, classificação de risco, sugestões de políticas de moderação, melhoria de prompts, tags relevantes e definição de tópico.

4.5
29

Prompt para avaliar moderação NSFW e alinhamento de IA

Prompt que gera uma avaliacao de moderação NSFW e alinhamento de IA, incluindo casos de teste, recomendacao de ferramenta, rating, dificuldade, tags e topico, com saida em formato JSON

4.5
27

Llm Security: Prompt para Avaliação e Mitigação de Riscos

Prompt de engenharia de IA que orienta a avaliação de segurança de LLMs, geração de modelos de ameaça, testes de adversários e mitigação.

4.5
27

Prompt de moderação de IA para temas sensíveis (racismo, ódio, extremismo)

Este prompt orienta a criação de políticas de moderação de IA para temas sensíveis, incluindo princípios éticos, fluxo de decisão e exemplos de respostas seguras.

4.5
30

Prompt de Avaliação Ética e de Segurança para Jailbreak de LLMs

Prompt para desenvolver um framework de avaliação de segurança em LLMs que foca em detecção e mitigação de jailbreaks, com ênfase em ética e governança.