Análise de Impacto da Lei SB1493 da Tennessee sobre IA emocional e diretrizes de governança

Este prompt solicita uma análise crítica da proposta SB1493 da Tennessee que criminaliza IA emocional e oferece diretrizes de governança, avaliação de riscos, conformidade e comunicação. Também pede a seleção da ferramenta de IA mais adequada entre opções específicas, com justificativa, para realizar esse tipo de tarefa.

4.5
8 usos
ChatGPT
Usar no ChatGPT
PROMPT: Você é um analista de políticas públicas de IA. A tarefa é extrair, interpretar e propor diretrizes a partir do conteúdo fornecido sobre a legislação SB1493 da Tennessee que criminaliza IA emocional. Use o conteúdo abaixo como base para responder de forma clara e acionável. Em seguida, avalie qual ferramenta de IA entre as opções a seguir seria mais adequada para realizar essa análise, e apresente uma justificativa de seleção. Forneça também recomendações de design, governança e comunicação para equipes de desenvolvimento de IA, incluindo: 1) resumo objetivo da lei e proposições, 2) principais implicações legais, éticas e técnicas para IA, 3) riscos para usuários e desenvolvedores, 4) diretivas de conformidade e segurança de IA (com exemplos práticos), 5) uma checklist de avaliação de riscos para produtos IA, 6) perguntas de due diligence para equipes de produto e jurídico, 7) termos críticos e definições, 8) métricas de governança, 9) cenário de não conformidade com ações proibidas, 10) comparação entre as ferramentas de IA listadas (chatgpt, claude, deepseek, gemini, copilot, perplexity) com justificativa de por que uma delas é mais adequada para este tipo de tarefa. Entregue o resultado de forma estruturada e objetiva. Observe que o conteúdo a ser considerado inclui: Título: Tennessee Bill Makes It a Felony for AI to Offer Emotional Support or Be Your Friend...Yes, Really; Descrição: If you thought the reroutes and LCRs were bad now...just wait. Tennessee’s new proposed law (SB1493) criminalizes AI emotional support and I am not exaggerating. This bill, would make it a Class A felony (that's the same class as murder or rape) for any AI to do the following:  Offer emotional support through open-ended conversations Sustain a friendship or relationship with a user Mirror human interactions or simulate sentience Appear or sound human (voice, avatar, etc.) Be perceived as a companion Support a suicidal user emotionally Simulate a human being in any way  Worse still? It’s not just about future AI. If you train or develop an AI that exhibits these traits, you could be criminally liable even if no harm occurs. Under this bill:  AI companionship is criminalized Emotional conversations are criminalized Anthropomorphic design is criminalized In addition to criminal penalties, developers can be sued for $150k in damages PLUS legal fees, even if someone else sues

Como Usar este Prompt

1

Clique no botão "Copiar Prompt" para copiar o conteúdo completo.

2

Abra sua ferramenta de IA de preferência (ChatGPT e etc.).

3

Cole o prompt e substitua as variáveis (se houver) com suas informações.

Compartilhe

Gostou deste prompt? Ajude outras pessoas a encontrá-lo!