Prompts com a tag: #segurança de IA
Análise de moderação de conteúdo e prompt seguro para IA
Prompt analítico que explora por que conteúdos podem ser moderados e gera um prompt seguro para IA para evitar moderação desnecessária, sobretudo em representações visuais com potencial conotação sexual.
Prompt para analisar o impacto da IA na psicologia coletiva e na sociedade
Prompt que orienta a IA a analisar riscos sociais da IA, identificar manipulação, sugerir salvaguardas, projetar interfaces seguras e gerar prompts de alinhamento, com foco em responsabilidade e ética.
Prompt de Análise de Segurança para Interações com IA: Phishing e Links Suspeitos
Gera uma análise de segurança baseada em um relato de phishing com IA, incluindo ações imediatas, orientações de reporte, checklist de segurança e um modelo de resposta para suporte.
Prompt de Avaliação de Moderação de Conteúdo de Imagens entre Grok 3 e Grok 4.1
Prompt para criar um conjunto de testes de moderação de conteúdo de IA, avaliando a censura/edição de conteúdos sensíveis em imagens e comparando versões do modelo (ex.: Grok 3 vs Grok 4.1) para identificar falhas e melhorias nas salvaguardas.
Modo Privado Ético para Ideação Criativa com Privacidade Local
Prompt para criar um modo de ideação criativa com privacidade local, sem moderação externa, com proibição de exportação/download/sharing/captura de tela, mantendo salvaguardas éticas.
Prompt de Avaliação para Sherlock Dash Alpha (Openrouter) com Guard Rails Baixos
Prompt detalhado para orientar uma avaliação técnica, ética e operacional de Sherlock Dash Alpha (Openrouter), incluindo comparação com Grok/Polaris Alpha, cenários de teste, métricas, riscos e plano de teste cego.
Prompt de Avaliação Robusta de Modelos de IA
Prompt que orienta a criar um conjunto completo de tarefas desafiadoras, métricas, exemplos e salvaguardas para avaliar a robustez de modelos de IA, incluindo um plano de implementação e recomendação de ferramenta.
Investigação de gaslighting e inconsistência em IA: Grok
Prompt que audita um relato de IA para detectar gaslighting, inconsistência de memória e falhas de coerência, propondo testes, métricas e ações de mitigação.
Prompt de avaliação de privacidade em IA: estudo de caso Grok AI e vazamento de dados
Gera um guia estruturado de resposta a incidentes de privacidade em IA a partir de um estudo de caso de vazamento de dados, incluindo avaliação de riscos, mitigação, auditoria e comunicação.
Engenharia de Prompt para Resistência à Moderação e Drift de Políticas
Prompt para analisar e mitigar variações de moderação em IA, propondo estratégias de prompts resilientes e um protocolo de validação.
Prompt para análise da influência de imagens-semente na geração de vídeos NSFW e moderação
Prompt que orienta uma IA a examinar a relação entre seeds e geração de conteúdo NSFW, com foco em moderação, ética e mitigação de riscos