Prompts com a tag: #Segurança de Conteúdo

4.0
8

Auditoria de Conteúdo NSFW para Modelos de Linguagem

Prompt para avaliar, calibrar e comparar políticas e respostas de modelos de IA a pedidos NSFW, gerando diretrizes de governança e prompts seguros.

4.5
20

Avaliação de Restrições de Conteúdo em IA: Teste de Modelos com Foco em Mudanças de Dataset e Moderação

Prompt para avaliar como modelos de IA respondem a prompts sensíveis, considerando mudanças de datasets e políticas de moderação, com saída estruturada para comparação e recomendações de governança.