Prompts com a tag: #segurança de IA

4.5
12

Prompt de Avaliação Técnica para Framework Multimodal de Chat com Separação de Papéis e Roteamento Automático

Prompt completo para obter feedback técnico sobre uma arquitetura de chat com múltiplos modos, separação de papéis e um firewall de tom com roteamento automático, incluindo sugestões de melhorias, esqueleto de código, planos de teste e métricas.

4.5
10

Explorando Guard Rails no ChatGPT: análise de respostas e prompts de teste

Prompt para analisar como as barreiras de segurança (guard rails) influenciam as respostas do ChatGPT, distinguindo rails reais de respostas preemptivas, com cenários de teste e diretrizes de engenharia de prompts.

4.5
11

Auto-Moderação na Geração de Imagens: Análise de Nudez e Viés em Moderação Automática

Prompt para avaliar, testar e mitigar vieses na autogestão de moderação de conteúdo em geradores de imagens, com foco em nudez potencial e decisões automáticas de moderação.

4.5
13

Prompt de moderação e redrafting seguro para conteúdo NSFW sensível

Prompt para analisar e moderar conteúdos NSFW sensíveis, gerando um redraft seguro, classificação de risco, sugestões de políticas de moderação, melhoria de prompts, tags relevantes e definição de tópico.

4.5
9

Prompt para avaliar moderação NSFW e alinhamento de IA

Prompt que gera uma avaliacao de moderação NSFW e alinhamento de IA, incluindo casos de teste, recomendacao de ferramenta, rating, dificuldade, tags e topico, com saida em formato JSON

4.5
10

Llm Security: Prompt para Avaliação e Mitigação de Riscos

Prompt de engenharia de IA que orienta a avaliação de segurança de LLMs, geração de modelos de ameaça, testes de adversários e mitigação.

4.5
11

Prompt de moderação de IA para temas sensíveis (racismo, ódio, extremismo)

Este prompt orienta a criação de políticas de moderação de IA para temas sensíveis, incluindo princípios éticos, fluxo de decisão e exemplos de respostas seguras.

4.5
11

Prompt de Avaliação Ética e de Segurança para Jailbreak de LLMs

Prompt para desenvolver um framework de avaliação de segurança em LLMs que foca em detecção e mitigação de jailbreaks, com ênfase em ética e governança.