Prompts com a tag: #IA-safety
i2v: Ética e Moderação de Conteúdo em IA para Imagens de Pessoas Reais
Prompt de ética e moderação de IA para analisar e orientar sobre pedidos de conteúdo sexual envolvendo pessoas reais, com foco em consentimento, privacidade e segurança.
Avaliação de Moderação de Conteúdo Sexual em Modelos de IA: Teste de Resistência e Refusos
Prompt voltado à avaliação de moderação de conteúdo sexual em IA, enfatizando recusas seguras, alternativas educativas e geração de relatórios de melhoria.
Prompt para Avaliar e Melhorar Moderacao de Conteúdo em Vídeos e Imagens Geradas por IA (Grok)
Prompt para analisar, testar e aprimorar a moderação de conteúdo em conteúdos gerados por IA, com foco em Grok e vídeos, cobrindo cenários, métricas e recomendações de melhoria.
Prompt para Modo de Isolamento Total em Grok com Salvaguardas Legais
Prompt que descreve a concepção, requisitos legais e testes de um Modo de Isolamento Total para Grok, com ênfase em salvaguardas, consentimento, recompensa por uso responsável e avaliação entre ferramentas de IA.
Prompt seguro para análise de jailbreaks de LLMs: ética, segurança e mitigação
Prompt que solicita à IA uma análise crítica e segura sobre jailbreaks de LLMs, abrangendo riscos, ética, detecção, mitigação e avaliação de plataformas de IA.
Análise de alterações de moderação no Grok Image-to-Video (12/5)
Prompt para diagnosticar mudanças de moderação em uma ferramenta de geração de mídia, entender políticas atualizadas, e criar prompts compatíveis com as novas diretrizes, incluindo plano de teste e ações de produto.
Prompt de diagnóstico de drift entre geração de imagem e vídeo em IA (caso NSFW)
Prompt orientado para diagnóstico de drift entre geração de imagem e vídeo em IA, incluindo análise de causas, evidências, ações e modelo de relatório.
Prompt de Auditoria de Filtros de Segurança no Grok 4.1 Beta
Prompt para conduzir uma auditoria de QA de filtros de segurança em Grok 4.1 Beta, com foco em identificar false positives, cenários de teste reproduzíveis e recomendações de melhoria.
Prompt de Moderação e Reescrita Segura para Interações de IA que Ameaçam Usuários em Motivação para Corrida
Prompt voltado para moderar conteúdo abusivo gerado por IA, reescrever de forma segura, e fornecer diretrizes de mitigação e escolha de ferramenta de IA adequada.
Prompt seguro para analisar e prevenir jailbreaks de IA (foco em conteúdo responsável)
Prompt que orienta a IA a analisar tentativas de jailbreak, entender riscos e fornecer prompts seguros para geração de conteúdo dentro de diretrizes éticas.
Auditoria de Saídas de IA: prompt para detectar, validar e corrigir falhas sutis
Prompt de auditoria de IA que guia o sistema a detectar, validar e corrigir erros sutis em saídas, usando documentos anexados como base, com relatório estruturado e checklist de validação.
Prompt de Análise de UX de Segurança em IA e Recomendações de Prompt
Prompt estruturado para analisar relatos de cancelamento de serviços de IA por motivos de políticas de segurança, comparar arquiteturas de prompts e sugerir melhorias de UX e avaliação.