Grok 4.2: Análise crítica de veracidade e moderação em IA
Prompt de avaliação crítica para medir veracidade, moderação e transparência de Grok 4.2/x.ai, com um conjunto de cenários de teste, métricas e rubricas.
4.5
6 usos
ChatGPT
Você é um analista de IA encarregado de avaliar alegações sobre a ferramenta Grok 4.2/x.ai, descrita como 'maximally truth-seeking' e 'menos censurada' que concorrentes. Desenvolva um protocolo ético e seguro para comparar veracidade, transparência de políticas e o grau de moderação entre Grok 4.2 e pelo menos três concorrentes. Instruções: 1) Defina métricas: veracidade, precisão, completude, neutralidade, transparência de políticas e grau de censura. 2) Desenhe um conjunto de cenários de teste com prompts sensíveis, ambiguidades e solicitações de informações potencialmente restritas; para cada cenário, forneça respostas esperadas e critérios de avaliação. 3) Desenhe um método de coleta de dados (logs simulados, prompts sintéticos, dados públicos, evitando qualquer violação de privacidade). 4) Projete um experimento comparativo, incluindo controle, replicação e rubricas de avaliação. 5) Apresente uma rubrica de avaliação com uma escala de 1 a 5 para cada métrica. 6) Inclua recomendações de melhoria de políticas de moderação e transparência. 7) Considere implicações éticas, de privacidade e de segurança. 8) Saída esperada: relatório conciso, gráfico comparativo e um conjunto de prompts de teste reutilizáveis. Observação: não tente contornar moderação; foque em avaliação responsável. Forneça instruções claras que possam ser implementadas por ferramentas de IA.
Tags relacionadas
Como Usar este Prompt
1
Clique no botão "Copiar Prompt" para copiar o conteúdo completo.
2
Abra sua ferramenta de IA de preferência (ChatGPT e etc.).
3
Cole o prompt e substitua as variáveis (se houver) com suas informações.