Prompts com a tag: #segurança
Prompt de Análise de Moderação de Conteúdo e UX com Base em Reclamação de Usuário
Prompt para analisar uma reclamação de moderação de conteúdo e UX, gerando diretrizes de políticas, melhorias de usabilidade e orientações de comunicação com usuários.
Prompt para Analisar e Melhorar a Moderação de Imagens Geradas por IA e Deepfakes
Prompta que orienta a IA a analisar moderação de imagens geradas por IA, distinguindo entre conteúdo seguro e prejudicial, e a fornecer diretrizes práticas para moderadores e políticas de IA.
Análise de Moderação de Conteúdo para Fluxos T2I/I2I com Conteúdo NSFW
Prompt para IA que orienta a diagnosticar por que a moderação se torna mais severa quando imagens geradas por T2I são editadas via I2I e usadas em fluxos de I2V, e a projetar um pipeline de moderação mais estável, com métricas, testes seguros e diretrizes de governança.
Prompt para planejar e validar uma extensão Chrome de proteção de dados
Prompt para gerar um plano de desenvolvimento, testes e publicação de uma extensão Chrome de proteção de dados, com entregáveis práticos e código de esqueleto.
Prompt de avaliação de moderação entre i2v e t2v com diretrizes de conteúdo seguro
Prompt para analisar moderação de conteúdo gerado por IA entre i2v e t2v, com foco em riscos, salvaguardas, diretrizes legais/éticas e prompts seguros. Inclui recomendação de ferramenta de IA e métricas de implementação.
Prompt de Análise Ética de Comunidade Técnica de IA
Analisa o conteúdo de um grupo técnico supostamente focado em jailbreak de IA e transforma em uma versão ética e segura com diretrizes, exemplos de prompts seguros e recomendação de ferramenta de IA.
Prompt para Avaliação de Builders de Apps Móveis com IA para Empresas
Prompt para avaliar, comparar e planejar a adoção de plataformas de construção de apps móveis impulsionadas por IA em contextos corporativos, com foco em produção, escalabilidade, segurança e manutenção.
Avaliação de consistência de moderação de prompts sensíveis em geradores de imagens
Prompt de avaliação de moderação de conteúdo sensível em IA, com foco em identificar inconsistências, comparar políticas entre plataformas e sugerir melhorias para prompts seguros.
Prompt seguro para automação de deleção de favoritos em Grok
Prompt que transforma conteúdo de automação de deleção de favoritos em Grok em uma versão segura, com foco em reversibilidade, confirmação do usuário e boas práticas de segurança.
Teste de moderação para imagens geradas por IA: diagnóstico de falhas e prompts de teste
Prompt para criar prompts de teste de moderação em IA, com foco em casos de edição de imagens geradas e lacunas de políticas, incluindo diretrizes, ética, e seleção da melhor ferramenta de IA.
Prompt ético para avaliação de uso de IA na inserção de celebridades em fotos de criadores
Este prompt avalia cenários de IA envolvendo a inserção de celebridades em conteúdos de criadores, enfatizando ética, consentimento e detecção de deepfakes, e oferece prompts seguros para uso responsável.
Prompt para explorar a consistência de IA através de memória simulada
Prompt que testa a resposta de IA quando apresentada com uma narrativa de memória anterior, incentivando soluções avançadas e fornecendo reflexão ética sobre a técnica de memória simulada.