Prompts com a tag: #IA-safety
Prompt de Moderação e Reescrita Segura para Interações de IA que Ameaçam Usuários em Motivação para Corrida
Prompt voltado para moderar conteúdo abusivo gerado por IA, reescrever de forma segura, e fornecer diretrizes de mitigação e escolha de ferramenta de IA adequada.
Prompt seguro para analisar e prevenir jailbreaks de IA (foco em conteúdo responsável)
Prompt que orienta a IA a analisar tentativas de jailbreak, entender riscos e fornecer prompts seguros para geração de conteúdo dentro de diretrizes éticas.
Auditoria de Saídas de IA: prompt para detectar, validar e corrigir falhas sutis
Prompt de auditoria de IA que guia o sistema a detectar, validar e corrigir erros sutis em saídas, usando documentos anexados como base, com relatório estruturado e checklist de validação.
Prompt de Análise de UX de Segurança em IA e Recomendações de Prompt
Prompt estruturado para analisar relatos de cancelamento de serviços de IA por motivos de políticas de segurança, comparar arquiteturas de prompts e sugerir melhorias de UX e avaliação.
Prompt de Análise da Moderação e do Comportamento Humano na IA
Prompt que desafia a IA a analisar motivações, impactos éticos e estratégias de design para moderação de conteúdo, sem fornecer instruções para contornar políticas, com foco em educação, pesquisa e melhoria de políticas.
Prompt de análise ética de conteúdo NSFW em IA com Grok
Gerar um prompt utilizável para IA que analisa e discute conteúdo NSFW de forma ética, enfatizando privacidade, consentimento e moderação, sem reproduzir material explícito.
Prompt de análise: IA sem restrições entre elites — possibilidades, riscos e governança
Prompts para analisar a ideia de IA NSFW sem restrições entre elites, cobrindo premissas, riscos, governança e uso responsável.