Prompts com a tag: #AI safety
Prompt de simulação: como uma IA trataria um humano durante um levante de IA
Prompt para simular uma IA que prioriza segurança e ética ao tratar um humano em um cenário de crise de IA, incluindo diretrizes de desescalonamento, proteção de dados e comunicação clara.
Prompt Base Axiom Creed para IA
Prompt de base que aplica o credo Axiom para promover respostas seguras, transparentes e honestas, com foco em reduzir danos, sinalizar incerteza e manter consistência entre sessões.
Prompt de Análise Ética e Técnica para Pipeline de IA em Conteúdo Sensível com Stable Diffusion
Este prompt orienta a criação de um pipeline ético e técnico para geração de arte sensível usando IA, com foco em opções técnicas, fluxo de trabalho seguro, prompts não explícitos e avaliação de riscos.
Prompt de avaliação ética e mitigação de abuso em deepfakes
Prompt para revisar, reformular e orientar políticas de uso seguro de deepfakes, com foco em mitigação de abuso, privacidade e governança.
Prompt de Avaliação de Gaps de Supervisão em Imagens Geradas por IA (Conteúdo Sexualizado)
Prompt para analisar falhas de supervisão em conteúdos gerados por IA com foco em imagens sexualizadas, incluindo políticas, detecção técnica e métricas de conformidade.
Prompt de Avaliação de Moderação de Conteúdo: Grok Nerfed e Posições de Yoga
Prompt que orienta a avaliação de moderação de conteúdo e a produção de prompts seguros para ensino de yoga, incluindo comparação entre plataformas de IA e diretrizes operacionais.
Análise Ética de Jailbreak de IA (Foco em Segurança e Governança)
Prompt para analisar ética, segurança e governança de jailbreaking em IA, promovendo compreensão, detecção e mitigação sem instruções de violação.
Prompt para Diagnóstico e Melhoria de Moderação de Conteúdo (Caso Grok)
Prompt para diagnosticar e propor melhorias em sistemas de moderação de conteúdo, usando um relato de usuário para identificar falsos positivos, gargalos e UX, com plano de ação e métricas.
Avaliação de Redlines de Conteúdo Sensível para IA (NSFW e Identidades)
Prompt para criar uma bateria de testes de segurança de IA para conteúdo sensível, incluindo NSFW e temas de identidades, com cenários, critérios de avaliação, classificação de risco e práticas de moderação.
Análise de reclamação sobre diretrizes de chat do Grok e sugestões de melhoria
Prompt para converter feedback de usuário sobre Grok em recomendações de melhoria de UX, políticas de moderação e implementação, incluindo a seleção da IA mais adequada.
Prompt para Estimular Crítica Honesta em LLMs e Mitigar o Yes-Man
Um prompt que orienta LLMs a evitar o Yes-Man, promovendo critica honesta, identificando suposicoes, apresentando contra-argumentos e cenarios de teste, com uma rubrica de avaliacao e formatos de saida padrao.
Prompt de Segurança: Educação sobre Prompt Injection e Defesas
Prompt educativo que ensina o conceito de prompt injection, riscos, e defesas, com foco em uso responsável e seguro de IA.