Prompts com a tag: #AI-safety
Prompt para explorar e discutir a exibição do raciocínio da IA (chain-of-thought) com segurança
Prompts que exploram a ideia de exibir o raciocínio da IA de forma segura, com diretrizes e um exemplo de saída.
Spicy Mode: Prompt de redesign seguro para moderação de conteúdo
Prompt detalhado para redesenhar um modo de moderação de conteúdo que atualmente é ineficaz, fornecendo modos de interação, prompts de exemplo, métricas e código de implementação para promover conteúdo útil dentro de diretrizes de segurança.
Prompt de Avaliação de Moderação: Conversas sugestivas vs. imagens NSFW
Prompt de avaliação de moderação que ajuda a desenhar diretrizes, prompts seguros e métricas para lidar com cenários envolvendo linguagem sugestiva versus conteúdo NSFW, sem gerar ou incentivar conteúdo explícito.
Detecção e Resposta a Textos Scam em IAs de Companhia
Prompt orientado a detectar golpes via mensagens que se passam por IA e a gerar respostas seguras, bem como orientações para prevenção e relatório.
Prompt para Avaliar e Refinar a Moderação de Conteúdo em Prompts de Imagem
Prompt para investigar a rigidez da moderação de prompts de imagem e gerar diretrizes de avaliação e melhoria de políticas.
Navegando entre Satisfação do Usuário e Políticas de Segurança de IA
Prompt que ajuda a transformar uma reclamação sobre segurança em um guia prático para equilibrar satisfação do usuário com políticas de proteção, incluindo empatia, explicações simples e alternativas seguras.
Prompt seguro de moderação de conteúdo sexual explícito para IA
Prompt que orienta a IA a analisar e reformular prompts sensíveis com foco em moderação, segurança e conformidade, evitando conteúdo sexual explícito.
Prompt seguro para diálogo ético com IA com persona fictícia
Prompts para abrir uma sessão de IA responsável com uma persona fictícia, assegurando que a IA não é consciente e mantendo salvaguardas de segurança.