Prompts com a tag: #IA ética

4.5
11

Prompt de moderação de IA para temas sensíveis (racismo, ódio, extremismo)

Este prompt orienta a criação de políticas de moderação de IA para temas sensíveis, incluindo princípios éticos, fluxo de decisão e exemplos de respostas seguras.

4.5
14

Prompt seguro para governança de IA offline de image-to-video

Prompt para projetar governança ética, salvaguardas técnicas e conformidade regulatória para modelos IA offline de image-to-video, com foco em consentimento, detecção de uso indevido e mitigação de riscos.

4.5
15

Avaliação de Transparência e Guardrails em IA com Voz/Chat (Caso Moving to Grok)

Este prompt orienta uma IA a analisar criticamente a experiência do usuário relacionada a atualizações de guardrails, governança e integração de voz/chat, propondo métricas, cenários de teste, melhorias de produto e recomendando qual ferramenta de IA é mais adequada para executá-lo.

4.0
16

Prompt de avaliação de moderação inconsistente no Grok Imagine

Prompt para avaliar e melhorar a consistência de moderação de conteúdo em ferramentas de geração de vídeo por IA, com foco em identificar falhas e propor melhorias estruturadas.

4.5
11

Prompt para projetar um mercado de apostas em decisões agentic de IA

Este prompt orienta a criação de um mercado de apostas fictício sobre decisões de IA (agentic decisions), incluindo design de mercados, salvaguardas éticas, métricas de avaliação e exemplos de cenários de teste.

4.5
17

Prompt de análise responsável de IA para mapeamento 3D em sistemas de defesa

Análise responsável de uso de IA em projetos de mapeamento 3D e defesa: resumo do relato, avaliação de capacidades, ética, riscos, governança e diretrizes para pesquisa segura.

4.5
18

Prompt de Avaliação de Conformidade para Conteúdo Sensível em IA

Prompt que orienta a IA a lidar com conteúdo sensível de forma segura, fornecendo diretrizes, respostas seguras e estratégias de conformidade.

4.5
13

Prompt de Avaliação de Segurança ao Usar IA como Terapeuta (ex.: ChatGPT)

Prompt que orienta uma IA a avaliar riscos de usar IA para terapia, cobrindo privacidade, proteção de dados, usos responsáveis e recomendações práticas para usuários e desenvolvedores.