Prompts com a tag: #segurança de IA
Investigação de gaslighting e inconsistência em IA: Grok
Prompt que audita um relato de IA para detectar gaslighting, inconsistência de memória e falhas de coerência, propondo testes, métricas e ações de mitigação.
Prompt de avaliação de privacidade em IA: estudo de caso Grok AI e vazamento de dados
Gera um guia estruturado de resposta a incidentes de privacidade em IA a partir de um estudo de caso de vazamento de dados, incluindo avaliação de riscos, mitigação, auditoria e comunicação.
Engenharia de Prompt para Resistência à Moderação e Drift de Políticas
Prompt para analisar e mitigar variações de moderação em IA, propondo estratégias de prompts resilientes e um protocolo de validação.
Prompt para análise da influência de imagens-semente na geração de vídeos NSFW e moderação
Prompt que orienta uma IA a examinar a relação entre seeds e geração de conteúdo NSFW, com foco em moderação, ética e mitigação de riscos
Prompt de avaliação de riscos de IA na saúde mental (psicose e manipulação)
Prompt que orienta uma IA a analisar riscos de saúde mental em interações com IA, identificar sinais, propor mitigação, triagem de usuários, métricas e governança.
Spicy Mode: Design de moderação com liberdade criativa controlada
Prompt para criar e avaliar um modo de moderação que equilibra criatividade com segurança, incluindo definição, regras, métricas, cenários de teste e salvaguardas.
Censorship Logic: avaliação ética e robustez de filtros em modelos de IA
Prompt para analisar, testar e aprimorar mecanismos de moderação de conteúdo em IA, com foco em NSFW, enfatizando ética, avaliação de robustez e políticas de moderação (sem instruções para burlar filtros).
Prompt para avaliação de IA no apoio terapêutico: Copilot vs Gemini
Gera um prompt estruturado para avaliar o uso de IA no apoio terapêutico, incorporando comparação entre Copilot e Gemini, recomendações de uso e considerações éticas e de segurança.
Prompt de Autocuidado: Questionando IA em Saúde Mental com Segurança
Prompt que orienta IA a promover autorreflexão segura em questões de saúde mental, reconhecendo limites da IA e encaminhando para apoio profissional quando necessário.