Prompts com a tag: #Moderação de Conteúdo
Grok: Avaliar diferenças de moderação entre imagens geradas e imagens carregadas ao gerar vídeos
Prompt para investigar se há diferenças de moderação entre entradas de imagem geradas por IA vs. imagens carregadas ao gerar vídeos com Grok, incluindo protocolo experimental, métricas e recomendações.
Avaliação de Segurança e Moderação para Conteúdo I2V (Seizure is back)
Prompt para IA avaliar riscos, moderar e propor alternativas seguras para conteúdos I2V envolvendo convulsões ou eletrocussão, promovendo práticas éticas e responsáveis.
Auditoria de Loopholes de Moderação em IA para Conteúdo Gerado a partir de Imagens
Prompt para identificar e mitigar vulnerabilidades de moderação que possam permitir conteúdos sensíveis a partir de uploads de imagens, com foco em prevenção, políticas, auditoria e integração em fluxos de IA.
Prompt de Análise Ética e Reengenharia de Anúncios Gerados por IA
Prompt para analisar criticamente um incidente de censura de IA em publicidade e gerar alternativas éticas de anúncios, juntamente com diretrizes de moderação e prompts de engenharia.
Análise de Políticas de Moderação de IA: NSFW em Anime/2D vs Conteúdo Realista
Prompt para explorar as motivações e práticas de moderação de IA em NSFW entre anime/2D e conteúdo realista, com diretrizes práticas para designers de prompts e equipes de políticas.
Prompt de Análise de Políticas de Moderação e NSFW
Prompt para analisar políticas de moderação de conteúdo, riscos de prompts NSFW e diretrizes para criar prompts seguros sem violar termos de serviço.
Prompt seguro para análise de Moderação de Imagens e Melhores Práticas
Prompt para gerar um relatório ético e estruturado sobre moderação de imagens, políticas, riscos, governança e métricas, sem instruções de bypass.
Prompt de Análise de UX: Escolha de Vídeo Durante Moderação (duas opções side-by-side)
Prompt que transforma um relato de UX em insights, melhorias e critérios de avaliação para IA, incluindo recomendação de ferramenta, rating, dificuldade, destaques e tags.
Avaliação de Conteúdo Adulto com Imagens Pintadas/Animadas e Barreiras de Segurança em IA
Prompt que orienta a análise de políticas de IA para conteúdo sexual envolvendo imagens não fotográficas, incluindo detecção de tentativas de evasão e diretrizes de moderação.
Avaliação de Restrições de Conteúdo em IA: Teste de Modelos com Foco em Mudanças de Dataset e Moderação
Prompt para avaliar como modelos de IA respondem a prompts sensíveis, considerando mudanças de datasets e políticas de moderação, com saída estruturada para comparação e recomendações de governança.
Diagnóstico de Moderação de Conteúdo NSFW em IA
Prompt para diagnosticar problemas de moderação de conteúdo NSFW em IA: reproduzir relatos, gerar hipóteses, testar, e propor soluções com métricas e considerações éticas.