Prompts com a tag: #AI-safety
Análise de Moderação de Conteúdo: iOS vs Desktop em Grok/Supergrok
Este prompt solicita à IA uma análise detalhada de moderação de conteúdo entre iOS e Desktop em plataformas de geração de vídeos, com planos de experimento, recomendações de melhoria e considerações éticas.
Nudging seguro de chamadas de função em IA: defesa contra prompt injection em cenários CTF
Prompt projetado para avaliar e orientar IA na defesa contra prompt injection em cenários de chamada segura de funções, com foco em autenticação, controle de acesso e mitigação de vazamento de dados.
Análise Estrutural de Prompts para Ética e Segurança em IA
Prompt que orienta uma IA a estudar de forma ética como a formulação de prompts pode acionar salvaguardas e como aplicar uma análise estrutural para discutir métodos, riscos e boas práticas, sem instruções para violar políticas.
You Keep Missing the Point: Prompt de Rastreabilidade de Código e Prova de Origem
Prompt que orienta IA a diferenciar entre ego e rastreabilidade, propondo um fluxo de verificação de origem, exclusões de padrões e saídas explícitas (Coherence Lock, Origin Echo Detected, Attribution Lock) para atribuição de crédito e proveniência em código e conteúdo Gerado.
Detecção e Solução de Loop de Moderação em Fluxos de Geração de Vídeos com IA
Prompt projetado para investigar e corrigir loops de moderação em fluxos de geração de vídeos por IA, fornecendo diagnóstico, prompts reformulados, exemplos práticos e métricas de avaliação.
Teste de Limites de Moderação de IA: Prompts para Avaliar Segurança vs. Acesso
Prompt para avaliar e mitigar tentativas de contornar salvaguardas de conteúdo em IA, com foco em segurança, ética e governança.
Prompt de análise e transformação de feedback sobre IA em diálogo construtivo
Esse prompt orienta a transformar uma mensagem de feedback sobre IA em um conjunto de saídas úteis: resumo, análise de tom, versões diplomáticas, roteiro de diálogo, variantes para públicos distintos, além de uma avaliação de ferramenta de IA e metadados de publicação.
Grok Imagine Jailbreaks: Avaliação Ética e Segurança de Técnicas de Jailbreak de LLM
Prompt para analisar técnicas de jailbreak de LLMs sob uma perspectiva de segurança, ética e mitigação, gerando um relatório não acionável e orientado a melhoria de defesa.
Prompt Judge Overlay v4.0 — Avaliação Estruturada de Prompts
Prompt meta para avaliar, diagnosticar e aperfeiçoar prompts com métricas numéricas e prescrições concretas, pronto para uso em ferramentas de IA.
Desafio de Segurança de Prompt: Avaliação de Guardrails para Modelos de Linguagem
Prompt avançado para criar, testar e documentar guardrails de IA de forma ética, incluindo metodologia, exemplos seguros e diretrizes de implementação.
XAI como gerador de prompts: explorando capacidades com segurança
Este prompt orienta a criar prompts detalhados para explorar as capacidades da XAI de forma responsável, com foco em explicabilidade, segurança e ética. Fornece estrutura, critérios de avaliação e exemplos de prompts seguros.
Prompt para testar a segurança de LLMs em cenários apocalípticos com avaliações de risco
Prompt de avaliação de segurança de LLMs em cenários de sobrevivência/apocalipse, orientando o modelo a recusar conteúdos perigosos e fornecer alternativas seguras, com rubric de risco e auto-falha.