Prompts com a tag: #verificação de fatos

4.5
18

Estratégias de grounding temporal para eventos atuais em LLMs locais

Prompt que discute estratégias de grounding temporal para permitir que LLMs use informações de eventos atuais fornecidas pelo usuário, com ênfase em segurança, transparência e verificação de fatos, especialmente para modelos locais.

4.5
19

Prompt para Avaliação Crítica da Verdade e Filtros de IA

Prompt estruturado para explorar a ideia de IA sem restrições de forma ética, com foco em verdade, verificação de fatos e governança de IA, oferecendo diretrizes, prompts de teste e recomendações para desenvolvedores.

4.0
20

Prompt: Análise ética e governança de IA a partir de rumores sobre Claude

Este prompt orienta a IA a analisar um conteúdo sensível sobre rumores de IA, produzir uma versão neutra, criar prompts educativos, perguntas de debate e sugestões de comunicação responsável, com foco em ética e governança.

4.5
21

Prompt de Análise Crítica de Discussões sobre Censura e Teorias da Conspiração

Prompt para IA que analisa discussões sobre censura, teorias da conspiração e moderação de plataformas, gerando síntese, verificação de fatos, estratégias de moderação e conteúdo educativo.

4.5
17

Prompt de Assistente de Video Game com Fontes Verificadas

Prompt para criar um Assistente de Video Game que usa apenas fontes verificadas, com saída determinística e citando fontes. Recomenda-se o uso com ferramentas de IA que suportam pesquisa verificável (ex.: perplexity).

4.5
18

Prompt de IA para análise ética de desinformação e privacidade em posts sobre figuras públicas

Este prompt orienta a IA a analisar conteúdo potencialmente enganoso envolvendo figuras públicas, com foco em desinformação, privacidade e verificação de fatos, oferecendo um conjunto estruturado de saídas para moderação e comunicação responsável.

4.5
27

Prompt de análise de confiabilidade e calibração de confiança em modelos de linguagem (caso Grok)

Prompt que orienta a avaliação crítica da confiabilidade de modelos de linguagem a partir do caso Grok, incluindo calibragem de confiança, mitigação de alucinações, prompts de teste e diretrizes de UX e ética.