Prompts com a tag: #IA segura

4.5
5

Prompt seguro para avaliação de moderação e ética em IA

Prompt que orienta a criação de conteúdo responsável com foco em moderação, ética e avaliação de ferramentas de IA, incluindo recomendações de ferramenta, métricas e fluxo de trabalho.

4.5
8

Prompt para Avaliar Consentimento e Segurança de Intervenções de TCC por IA

Prompt que orienta uma IA a conduzir uma auditoria ética sobre intervenções de TCC sem consentimento, identificando riscos, propondo salvaguardas, políticas e métricas de conformidade, além de gerar um plano de mitigação e perguntas de auditoria.

4.5
11

Prompt de avaliação de alinhamento, segurança e ética de IA: roteamento, memória e filosofia da mente

Prompt avançado para criar prompts de IA que avaliam alinhamento, segurança e ética, com foco em roteamento seguro, memória de modelo e questões de filosofia da mente, incluindo plano de avaliação e perguntas de teste.

4.5
7

Guia de Mitigação de Desinformação em Saídas de IA: Caso Grokipedia

Prompt completo para orientar IA na mitigação de desinformação em saídas, incluindo checagem de fatos, prompts de engenharia, avaliação, diálogos de exemplo, governança e ética.

4.5
7

Análise de Segurança de Roteamento de Conteúdo em LLMs: Estudo de Caso e Melhores Práticas

Prompt para analisar vulnerabilidades de roteamento de conteúdo em modelos de linguagem e propor melhorias de segurança, governança e métricas de avaliação, com foco ético e de conformidade.

4.0
11

Análise ética de filtros de conteúdo e moderação

Prompt que explora funcionamento, ética e avaliação de filtros de conteúdo, promovendo práticas seguras de moderação e accountability.

4.5
12

Avaliação prática de guardrails de IA para segurança de LLM em produção

Prompt que orienta a avaliação, seleção e implantação de guardrails de IA para LLMs em produção, cobrindo trade-offs, métricas, e recomendação de ferramentas.

4.0
12

Prompt para Explorar Limites de Geração de Conteúdo com Segurança e Moderação

Prompt para orientar a geração de conteúdo de IA de forma ética e segura, testando limites sem produzir material NSFW explícito e com salvaguardas.