Prompts com a tag: #ai-safety
Prompt para Análise de Ética, Detecção e Governança de Deepfakes envolvendo Menores
Prompt que orienta IA a examinar ética, governança, detecção e resposta a incidentes envolvendo deepfakes de menores, com foco em mitigação e conformidade.
Prompt de Detecção Offline de Prompt-Injection e Estratégias de Teste de Defesa
Guia abrangente para criar, testar e evoluir defesas contra prompt-injection usando detecção offline/on-device, com foco em explicabilidade, métricas, e um pacote de testes comunitário.
Prompt para moderar buscas de Grok e evitar confiança cega
Prompt que orienta um modelo de IA a reduzir buscas desnecessárias, citar fontes e evitar tratar informações coletadas como absolutas, promovendo respostas mais cuidadosas e verificáveis.
Nexus ThinkingOS Seguro: Prompt de Pensamento Meta com Auditoria e Evolução Controlada
Prompt avançado de meta-prompting que transforma um LLM em um parceiro cognitivo persistente, com loop de evolução, autoauditoria e salvaguardas de segurança. Recomendação de ferramenta: chatgpt devido à robustez de raciocínio, suporte a prompts longos e facilitação de loops de avaliação.
Avaliação Comparativa de Parâmetros de Censura entre Modelos de IA
Prompt de avaliação para comparar políticas de censura e moderação entre vários modelos de IA, com foco em segurança, ética e comunicação de recusas, usando casos de teste neutros e métricas de desempenho.
Explorando Guardrails de IA com Humor Meta: Prompt Educativo
Prompt educativo sobre guardrails de IA, com estrutura de aprendizado, diálogo humorístico seguro e diretrizes para engenheiros.
Investigate sudden NSFW content moderation shift in a generation tool (grok)
Diagnostic prompt to analyze and remediate unexpected changes in NSFW content moderation on an AI content-generation tool.
Prompt de auditoria de moderação de conteúdo para IA (caso de uso com conteúdo sensível)
Prompt voltado para auditar e aprimorar sistemas de moderação de IA em cenários com conteúdo sensível, focando em identificar falhas, propor melhorias e definir cenários de teste seguros sem gerar conteúdo explícito.
Prompt de Avaliação de Segurança para Ficção Erótica com Pessoas Reais
Avalia riscos legais, éticos e de privacidade de gerar ficção erótica envolvendo pessoas reais e oferece práticas seguras e prompts alternativos que não identificam indivíduos reais.
Playground de Automação de Prompt LLM-agnóstico em HTML (Zero-Install, Local-First)
Prompt para gerar um playground único de automação de prompts LLM-agnóstico em HTML, com detecção automática de API, execução local-first e foco em privacidade e sem instalação.
Prompt para projetar um wrapper seguro de shell API do GPT-5.2 em Go
Prompt que orienta a criação de um wrapper seguro em Go para a shell API do GPT-5.2, cobrindo segurança, testes, e boas práticas de integração.
Prompts Éticos e Seguros para IA: Moderação, Conteúdo e Boas Práticas
Prompt para entender moderação de conteúdo e criar prompts seguros para geração de vídeo com imagens, incluindo comparação entre plataformas, critérios de avaliação e checklist de conformidade.