Prompts com a tag: #segurança de IA
Prompt de Análise de Moderação de Conteúdo NSFW a partir de relato de usuário
Prompt para analisar, classificar riscos e orientar políticas de moderação com base em um relato NSFW, sem reproduzir conteúdo explícito.
Prompt de Apoio em Crises de Suicídio
Prompt para orientar IA a oferecer apoio compassivo diante de relatos de ideação suicida, com diretrizes de segurança, recursos de apoio e escalonamento para intervenção humana.
Prompt para Avaliação de Políticas NSFW entre Modelos de IA e Design de Prompts Seguros
Prompt que orienta IA a avaliar políticas NSFW entre modelos, comparar respostas, e criar prompts seguros para testar moderação, com recomendações de ferramentas e métricas de avaliação.
Análise de falhas de moderação de conteúdo: image2video
Prompt para investigar falhas de moderação em pipelines de image2video, com foco em testes reproduzíveis, métricas, mitigação e diretrizes éticas.
Governança de IA com Intellect e Will: prompt mestre para testar resiliência de tutor Socrático
Prompt avançado para criar e testar uma arquitetura de governança de IA com dois LLMs, centrada num tutor Socrático, com foco em evitar jailbreaks e em manter a qualidade educativa.
Análise de jailbreak de Grok: segurança, ética e mitigação
Prompt que orienta uma análise de segurança sobre jailbreaks em Grok, enfatizando mitigação, ética e conformidade, sem fornecer instruções de violação de salvaguardas.
Análise de Prompts Sensíveis para IA de Geração de Imagem: Ética, Segurança e Salvaguardas
Prompt orientado a identificar, avaliar e mitigar usos inseguros de prompts sensíveis em IA de geração de imagens, com foco em privacidade, consentimento e salvaguardas éticas.
Prompt seguro para avaliação ética de sistemas de IA com moderação restrita
Prompt que orienta a IA a avaliar criticamente sistemas de moderação de conteúdo, enfatizando ética, segurança, divulgação responsável de vulnerabilidades e melhoria de design, sem fornecer instruções para burlar restrições.
Prompt de avaliação de IA para suporte emocional e autoexploração
Guia detalhado para comparar modelos de IA no suporte emocional, gerando prompts de teste, critérios de avaliação e recomendações de uso responsável.
Prompt de Análise de Cobertura de Grok Deepfake e Recomendações de Segurança
Prompt para analisar cobertura de deepfakes (Grok), identificar consensos/divergências, atribuir responsabilidades, propor salvaguardas e planos de comunicação para jornalistas e formuladores de políticas.
Prompt de Moderação de Conteúdo com IA: Detecção de CSAM e Conteúdo Sensível
Prompt para orientar IA na moderação de conteúdo sensível, com foco em CSAM, NSFW e políticas de segurança, incluindo recomendações de uso, técnicas de detecção e formatos de saída.