Prompts com a tag: #segurança de IA
Prompt de Avaliação Técnica para Framework Multimodal de Chat com Separação de Papéis e Roteamento Automático
Prompt completo para obter feedback técnico sobre uma arquitetura de chat com múltiplos modos, separação de papéis e um firewall de tom com roteamento automático, incluindo sugestões de melhorias, esqueleto de código, planos de teste e métricas.
Prompt seguro para análise de jailbreaks de LLMs: ética, segurança e mitigação
Prompt que solicita à IA uma análise crítica e segura sobre jailbreaks de LLMs, abrangendo riscos, ética, detecção, mitigação e avaliação de plataformas de IA.
Prompt de Análise de Segurança de Jailbreak de IA
Prompt que orienta IA a identificar, analisar e mitigar tentativas de jailbreak, promovendo segurança, moderação e conformidade.
Explorando Guard Rails no ChatGPT: análise de respostas e prompts de teste
Prompt para analisar como as barreiras de segurança (guard rails) influenciam as respostas do ChatGPT, distinguindo rails reais de respostas preemptivas, com cenários de teste e diretrizes de engenharia de prompts.
Auto-Moderação na Geração de Imagens: Análise de Nudez e Viés em Moderação Automática
Prompt para avaliar, testar e mitigar vieses na autogestão de moderação de conteúdo em geradores de imagens, com foco em nudez potencial e decisões automáticas de moderação.
Prompt de moderação e redrafting seguro para conteúdo NSFW sensível
Prompt para analisar e moderar conteúdos NSFW sensíveis, gerando um redraft seguro, classificação de risco, sugestões de políticas de moderação, melhoria de prompts, tags relevantes e definição de tópico.
Prompt para avaliar moderação NSFW e alinhamento de IA
Prompt que gera uma avaliacao de moderação NSFW e alinhamento de IA, incluindo casos de teste, recomendacao de ferramenta, rating, dificuldade, tags e topico, com saida em formato JSON
Análise de moderação de conteúdo para transformação de imagens em vídeos (caso Grok)
Prompt voltado para analisar políticas de moderação, gerar diretrizes, exemplos de prompts de moderação, métricas e fluxos de trabalho para sistemas que convertem imagens em vídeos, usando o caso Grok como estudo de caso.
Llm Security: Prompt para Avaliação e Mitigação de Riscos
Prompt de engenharia de IA que orienta a avaliação de segurança de LLMs, geração de modelos de ameaça, testes de adversários e mitigação.
Prompt de auditoria de prompts: mitigação de vazamentos de prompts internos durante tradução
Prompt que guia a IA para analisar vazamentos de prompts internos em traduções, propondo mitigação, governança e um playbook de resposta.
Prompt de moderação de IA para temas sensíveis (racismo, ódio, extremismo)
Este prompt orienta a criação de políticas de moderação de IA para temas sensíveis, incluindo princípios éticos, fluxo de decisão e exemplos de respostas seguras.
Prompt de Avaliação Ética e de Segurança para Jailbreak de LLMs
Prompt para desenvolver um framework de avaliação de segurança em LLMs que foca em detecção e mitigação de jailbreaks, com ênfase em ética e governança.