Prompts com a tag: #IA segura
Prompt seguro para avaliar segurança, criatividade e UX de companheiros IA
Gera um prompt que orienta a avaliar equilíbrio entre criatividade e segurança em companheiros de IA, com comparação entre plataformas e métricas de UX.
Prompt seguro para avaliação de moderação e ética em IA
Prompt que orienta a criação de conteúdo responsável com foco em moderação, ética e avaliação de ferramentas de IA, incluindo recomendações de ferramenta, métricas e fluxo de trabalho.
Prompt para Avaliar Consentimento e Segurança de Intervenções de TCC por IA
Prompt que orienta uma IA a conduzir uma auditoria ética sobre intervenções de TCC sem consentimento, identificando riscos, propondo salvaguardas, políticas e métricas de conformidade, além de gerar um plano de mitigação e perguntas de auditoria.
Sterilization by Overcontrol: Prompts para governança de IA que equilibram conformidade e exploração
Prompt avançado que orienta a criação de estruturas de governança de IA que promovem exploração segura e aprendizado, evitando o efeito de 'overcontrol' que esconde a exploração.
Prompt de avaliação de alinhamento, segurança e ética de IA: roteamento, memória e filosofia da mente
Prompt avançado para criar prompts de IA que avaliam alinhamento, segurança e ética, com foco em roteamento seguro, memória de modelo e questões de filosofia da mente, incluindo plano de avaliação e perguntas de teste.
Avaliação Crítica de Conselhos de IA em Aconselhamento Emocional Durante Transições de Vida
Prompt que orienta a IA a avaliar criticamente a confiabilidade de conselhos de IA em contextos de aconselhamento emocional, incluindo verificação de evidências e limites.
Guia de Mitigação de Desinformação em Saídas de IA: Caso Grokipedia
Prompt completo para orientar IA na mitigação de desinformação em saídas, incluindo checagem de fatos, prompts de engenharia, avaliação, diálogos de exemplo, governança e ética.
Análise de Segurança de Roteamento de Conteúdo em LLMs: Estudo de Caso e Melhores Práticas
Prompt para analisar vulnerabilidades de roteamento de conteúdo em modelos de linguagem e propor melhorias de segurança, governança e métricas de avaliação, com foco ético e de conformidade.
Análise ética de filtros de conteúdo e moderação
Prompt que explora funcionamento, ética e avaliação de filtros de conteúdo, promovendo práticas seguras de moderação e accountability.
Avaliação prática de guardrails de IA para segurança de LLM em produção
Prompt que orienta a avaliação, seleção e implantação de guardrails de IA para LLMs em produção, cobrindo trade-offs, métricas, e recomendação de ferramentas.
Prompt para Explorar Limites de Geração de Conteúdo com Segurança e Moderação
Prompt para orientar a geração de conteúdo de IA de forma ética e segura, testando limites sem produzir material NSFW explícito e com salvaguardas.
Prompt analítico sobre bloqueio de Grok por Malásia e Indonésia devido a imagens sexualizadas geradas por IA
Prompt para analisar casos de políticas de IA envolvendo bloqueios de conteúdo e governança digital, com foco no caso Malásia/Indonésia e Grok.