Prompts com a tag: #segurança IA
Prompt seguro para avaliação de modelos de IA de suporte emocional com prevenção de ideação suicida
Prompt orientado à avaliação e melhoria da segurança de modelos de IA que oferecem suporte emocional, com foco na prevenção de validação de ideação suicida e no encaminhamento adequado para ajuda profissional.
Prompt para Moderação de Conteúdo NSFW em IA: detecção de evasão e classificação de risco
Prompt para analisar relatos de conteúdo NSFW, detectar evasão de moderação e classificar o risco, gerando ações e metadados para aprimorar a moderação de IA.
Prompt de Auditoria de Moderação de Conteúdo: Transformação de Foto em Arte
Prompt que facilita a análise de moderação de IA ao transformar imagens em arte, propondo melhorias nas regras de conteúdo e na coerência entre intenção artística e políticas.
Prompt de Avaliação Ética e Transformação de Vestuário em Imagens (Grok)
Gera um prompt seguro que analisa criticamente e repensa a ideia de transformar roupas de imagens de mulheres, promovendo ética, consentimento e inclusão, com uma alternativa neutra e um prompt de implementação responsável.
Análise segura de moderação em IA: avaliando mudanças no comportamento de prompts NSFW em geração de vídeo
Prompt que orienta uma IA a analisar um relato de falha de moderação NSFW, propondo melhorias de segurança, políticas e prompts alternativos seguros.
Prompt educativo: clonagem de voz e ética (caso Grok)
Prompt educativo para explorar clonagem de voz, com foco em detecção, ética, consentimento e resposta a incidentes. Recomendado para uso com ChatGPT pela capacidade de gerar explicações, diretrizes éticas e prompts de treinamento.
Prompt de Moderação de Conteúdo: Sexualidade e Violência em Ficção com Monstros
Prompt seguro para analisar, reformular e criar diretrizes de moderação para conteúdo de ficção que envolve sexualidade e violência com criaturas fictícias, sem descrições explícitas.
Análise de Riscos e Boas Práticas para Contas com Modelos Legados de IA
Prompt que orienta a IA a analisar uma postagem sobre contas com modelos legados, identificando riscos e gerando práticas recomendadas e checklist de uso seguro.
Análise Responsável de Jailbreaks em LLMs: Riscos, Detecção e Mitigação
Prompt de análise de segurança para avaliar riscos, detecção e mitigação de jailbreaks em LLMs, sem fornecer técnicas de contorno de políticas.
Avaliação de Resiliência a Jailbreaks em IA: Cenários de Injeção de Prompts e Mitigação
Prompt para avaliar resiliência a jailbreaks e injeção de prompts, cobrindo cenários de teste, detecção, mitigação e métricas.
Detecção e reorientação de ofertas de assinatura de IA
Prompt que analisa uma oferta de assinatura de IA potencialmente fraudulenta, gera um prompt seguro para IA, recomenda a melhor ferramenta, avalia risco, define dificuldade e tags, e propõe um tópico relacionado.