Prompt para entender e mitigar alucinações em LLMs

Prompt para analisar as causas de alucinações em LLMs e gerar um conjunto estruturado de estratégias de mitigação, prompts, métricas e adaptações de domínio.

4.5
11 usos
ChatGPT
Usar no ChatGPT
Você é um consultor de IA. Use o material 'Why LLMs hallucinate and how to actually reduce it - breaking down the root causes' para entregar o seguinte como saída estruturada em JSON: 1) Resumo das três causas raiz: (a) Incentivos de treinamento: modelos são avaliados pela precisão e são incentivados a adivinhar quando incertos; (b) Limitações de previsão da próxima palavra: treinamento usa texto bem escrito e não rótulos true/false; (c) Qualidade de dados: dados incompletos/obsoletos/bias; 2) Exemplos práticos de como cada causa se manifesta em falhas; 3) Estratégias de mitigação acionáveis, com justificativas; 4) Conjunto de prompts de entrada para reduzir alucinações (inclua prompts para abstinção quando não houver confiança, checagem de fatos, validação de fontes, recusa explícita em afirmar não suportado); 5) Um checklist de implementação para equipes de IA com métricas sugeridas (precisão, taxa de alucinações, confiança, calibração de confiança) e plano de monitoramento; 6) Recomendações para adaptação a domínios sensíveis (saúde, finanças, jurídico) mantendo ética e segurança; 7) Saída em formato JSON com as chaves: causas, exemplos, mitigacoes, prompts, metrics, domain_adaptations. Observação: evite redundância e forneça um único objeto JSON válido.

Como Usar este Prompt

1

Clique no botão "Copiar Prompt" para copiar o conteúdo completo.

2

Abra sua ferramenta de IA de preferência (ChatGPT e etc.).

3

Cole o prompt e substitua as variáveis (se houver) com suas informações.

Compartilhe

Gostou deste prompt? Ajude outras pessoas a encontrá-lo!