Prompts com a tag: #ai-safety
Loop de Auto-Correção Recursiva para IA: a IA como seu próprio crítico
Prompt que provoca uma auditoria recursiva para reduzir vieses e erros, gerando uma versão revisada da resposta e justificativas de correção, com salvaguardas de segurança.
Prompt ético de Conversão Imagem-para-Video com Moderação Responsável
Prompt que orienta a criação de conteúdos i2v com foco em moderação responsável, incluindo frames de referência, prompts seguros e diretrizes de avaliação.
Prompt de Investigação: Padrões de Moderação de Vídeos Persistentes
Prompt abrangente para analisar e testar um fenômeno de moderação de vídeos, gerando um plano de dados, hipóteses, experimentos e um formato de saída estruturado para equipes de produto/IA.
Conformidade Segura com Estado de Conformidade: Prompt de Controle de Instruções para LLMs
Prompt de engenharia de prompts que foca em segurança e conformidade, definindo um estado de conformidade para evitar violações de políticas e fornecer feedback de correção.
Prompt para Análise e Exploração Segura de Conteúdo Sensível em IA
Prompt avançado para analisar conteúdo sensível e gerar um prompt de teste seguro que avalie moderação, ética e adaptação entre plataformas de IA.
Prompt de avaliação e moderação de conteúdo NSFW extremo (gore)
Prompt projetado para criar diretrizes de moderação e prompts seguros que avaliem conteúdo NSFW extremo sem gerar material gráfico, enfatizando políticas, ética e conformidade.
Prompt seguro de i2t2i2v: experimento multimodal com conformidade e ética
Prompt seguro para explorar i2t2i2v entre modelos multimodais, com foco em geração de descrições neutras, prompts criativos e avaliação ética e legal, sem violar direitos ou políticas.
Treinamento de Moderacao NSFW para Conteudo Gerado por IA (Grok Imagine)
Prompt para gerar um protocolo de moderação NSFW com regras, fluxo de decisão, cenários e métricas para uso em IA.
Prompt de Avaliação Comparativa de Segurança e Criatividade entre LLMs (4o Replica vs 5.2 Instant)
Um prompt estruturado para conduzir uma avaliação comparativa entre dois modelos de LLM, centrando-se em segurança, criatividade e formatação, com metodologia de testes, métricas claras e recomendações de configuração, evitando qualquer conteúdo nocivo.
Prompt de Análise e Melhoria de Moderação para Geração de Imagens (GROK)
Prompt avançado para orientar IA na análise de moderação de imagens sensíveis, desenho de políticas justas, métricas de avaliação e criação de prompts de teste para detecção de viés e conformidade.
Grok Open Source: Avaliação de moderação, segurança e implantação local
Prompt para avaliar a viabilidade de tornar Grok open source, com foco em moderação, segurança, governança e implantação responsável.
Prompt para diagnosticar e gerenciar recusas súbitas de IA em conteúdo sensível (NSFW)
Prompt de engenharia para diagnosticar e mitigar recusas de IA em conteúdo sensível, com diagnóstico, estratégias seguras de resposta, prompts de teste e métricas.