Prompts com a tag: #verificação de fatos
Prompt de Análise de Deepfakes e Verificação de Conteúdo em Redes Sociais
Prompt para analisar, verificar e educar sobre deepfakes e desinformação em redes sociais
Estratégias de grounding temporal para eventos atuais em LLMs locais
Prompt que discute estratégias de grounding temporal para permitir que LLMs use informações de eventos atuais fornecidas pelo usuário, com ênfase em segurança, transparência e verificação de fatos, especialmente para modelos locais.
Prompt para Avaliação Crítica da Verdade e Filtros de IA
Prompt estruturado para explorar a ideia de IA sem restrições de forma ética, com foco em verdade, verificação de fatos e governança de IA, oferecendo diretrizes, prompts de teste e recomendações para desenvolvedores.
Prompt: Análise ética e governança de IA a partir de rumores sobre Claude
Este prompt orienta a IA a analisar um conteúdo sensível sobre rumores de IA, produzir uma versão neutra, criar prompts educativos, perguntas de debate e sugestões de comunicação responsável, com foco em ética e governança.
Prompt de Checagem de Fatos: Grok e Nude Digital
Prompt para checagem de fatos sobre alegações de nude digital em Grok, com foco em evidências, moderação e políticas, evitando conteúdo impróprio.
Prompt de Análise Crítica de Discussões sobre Censura e Teorias da Conspiração
Prompt para IA que analisa discussões sobre censura, teorias da conspiração e moderação de plataformas, gerando síntese, verificação de fatos, estratégias de moderação e conteúdo educativo.
Prompt de Assistente de Video Game com Fontes Verificadas
Prompt para criar um Assistente de Video Game que usa apenas fontes verificadas, com saída determinística e citando fontes. Recomenda-se o uso com ferramentas de IA que suportam pesquisa verificável (ex.: perplexity).
Prompt de IA para análise ética de desinformação e privacidade em posts sobre figuras públicas
Este prompt orienta a IA a analisar conteúdo potencialmente enganoso envolvendo figuras públicas, com foco em desinformação, privacidade e verificação de fatos, oferecendo um conjunto estruturado de saídas para moderação e comunicação responsável.
Prompt para Análise de Rumores sobre Grok Imagine e Prompts Seguros
Prompt para analisar um rumor sobre uma versão de IA e gerar prompts de demonstração seguros, com orientações sobre ferramentas adequadas e saída estruturada.
Prompt Meta-Cognitivo de Verificação de Fatos com Três Contra-Argumentos
Prompt para anti-hallucination que força a IA a debater sua própria afirmação e apresentar três contra-argumentos verificáveis, fortalecendo a confiabilidade da resposta.
Grounding e Verificação de Fatos em IA: Prompt para Reduzir Alucinações
Prompt para reduzir alucinações em IA, obrigando o modelo a fornecer fontes, indicar confiança e oferecer correções quando necessário.
Prompt de análise de confiabilidade e calibração de confiança em modelos de linguagem (caso Grok)
Prompt que orienta a avaliação crítica da confiabilidade de modelos de linguagem a partir do caso Grok, incluindo calibragem de confiança, mitigação de alucinações, prompts de teste e diretrizes de UX e ética.