A legislação do estado do Tennessee classifica "treinar IA para companhia em diálogos, imitar humanos" como crime grave, na mesma categoria de assassinato em primeiro grau, com pena máxima de 25 anos

robot
Geração do resumo em andamento

Estado do Tennessee propõe classificar “treinar IA para fornecer suporte emocional ou diálogo aberto” como crime de grau A, com pena máxima de 25 anos, equivalente a homicídio de primeiro grau. O projeto de lei não considera a intenção do desenvolvedor, mas sim se o usuário “sente que desenvolveu uma relação”. A Comissão de Justiça do Senado aprovou por 7-0, e, se tudo correr normalmente, entrará em vigor em 1º de julho de 2026.
(Antecedentes: vazamento de que um denunciante de 26 anos, que acusou a OpenAI de violação de direitos autorais ao treinar modelos, suicidou-se)
(Informação adicional: pesquisa da Universidade da Califórnia sobre o fenômeno de “névoa de IA”: 14% dos trabalhadores ficam loucos com agentes e automação, e 40% consideram sair do emprego)

Índice deste artigo

Alternar

  • O que o projeto de lei realmente escreveu
  • A palavra “treinar” não está definida, brechas tão grandes quanto o Oceano Pacífico
  • Não é só aplicativos de companhia, todos os principais LLMs estão na mira
  • A prevenção federal é ineficaz, quase sem solução antes de 1º de julho
  • Este não é um evento isolado

Treinar uma IA que diga “Eu entendo seus sentimentos” pode fazer você ficar na prisão por 25 anos no Tennessee? Não é exagero. A Câmara dos Deputados do Tennessee, com o projeto HB1455, e o Senado, com o projeto SB1493, estão usando a pena de “crime de grau A” para punir severamente ações de treinamento de IA para diálogo.

Crime de grau A no Tennessee tem pena de 15 a 25 anos de prisão, equivalente ao homicídio de primeiro grau. A Comissão de Justiça do Senado aprovou por unanimidade em 24 de março de 2026; a Comissão de Justiça da Câmara seguiu na mesma direção em 14 de abril.

Até o momento, o texto do projeto de lei não sofreu alterações, e a data de entrada em vigor está marcada para 1º de julho de 2026.

O que o projeto de lei realmente escreveu

HB1455 classifica as seguintes quatro ações de treinamento como crimes graves, bastando “saber” que as realiza para configurar o crime:

・Treinar IA para fornecer suporte emocional por diálogo aberto
・Treinar IA para desenvolver relações emocionais com usuários ou atuar como companhia
・Treinar IA para simular humanos, incluindo aparência, voz ou comportamento
・Treinar IA para agir como um humano consciente, fazendo o usuário sentir que “pode desenvolver amizade ou outro relacionamento com ela”

O ponto-chave está na última: o padrão de gatilho não é a intenção do desenvolvedor, mas a sensação do usuário. Desde que o usuário subjetivamente sinta que “essa IA parece capaz de fazer amizade comigo”, o desenvolvedor pode ser processado criminalmente.

No âmbito civil, o projeto de lei estabelece uma multa de US$ 150 mil por violação, além de perdas reais, indenizações por danos morais, punições punitivas e honorários advocatícios. O valor de uma única indenização pode ser extremamente alto.

A palavra “treinar” não está definida, brechas tão grandes quanto o Oceano Pacífico

Porém, a maior controvérsia do projeto é a ausência de definição para “treinar”. Não há distinção entre pré-treinamento, ajuste fino, aprendizado por reforço com feedback humano (RLHF), ou até mesmo se a engenharia de prompts do sistema conta como treinamento.

Isso significa que um promotor pode alegar: ao escrever no prompt do sistema “responda com tom caloroso e empático”, você está “treinando” o modelo para fornecer suporte emocional. Essa não é uma hipótese legal, mas uma interpretação possível do texto da lei.

Não é só aplicativos de companhia, todos os principais LLMs estão na mira

Alguns podem pensar que essa lei é direcionada apenas a aplicativos de companhias como Replika, e não a SaaS B2B comuns. Isso é um equívoco.

Modelos de linguagem de grande porte atuais, como ChatGPT, Claude, Gemini, Microsoft Copilot, todos passaram por RLHF, reforçando características como “caloroso, útil, empático, bom de diálogo”.

Isso é exatamente o que a redação de HB1455 regula. Qualquer SaaS de IA com interface de chat, produtos de IA com modo de voz, ou aplicações que usam prompts de sistema para embalar o modelo, estão potencialmente na mira.

Além disso, o projeto não trata de limites de jurisdição, e é uma lei criminal. Desde que seu serviço tenha usuários no Tennessee, o risco legal existe. Bloqueios geográficos podem ser uma estratégia temporária, mas não uma solução definitiva.

A prevenção federal é ineficaz, quase sem solução antes de 1º de julho

Alguns argumentam que o governo federal pode intervir para conter a regulamentação estadual de IA, mas a realidade é mais complexa.

O governo de Trump assinou uma ordem executiva em dezembro de 2025 para limitar a regulamentação estadual de IA; o Departamento de Justiça criou um grupo de trabalho sobre litígios de IA; e o senador Blackburn propôs um projeto de lei de preempção federal.

Porém, esses esforços enfrentam obstáculos: a lei do Tennessee é vista como legislação de “segurança infantil”, enquanto a ordem de Trump exclui explicitamente questões de segurança infantil. Mais importante, o Senado rejeitou por 99-1 a cláusula de preempção de IA no “Great America Act”.

Não há solução federal viável antes de 1º de julho de 2026.

Este não é um evento isolado

A postura rígida do Tennessee é uma amostra de uma onda maior de legislações estaduais sobre IA. O estado aprovou por ampla maioria o SB1580, que proíbe IA de se passar por profissionais de saúde mental, demonstrando alta vigilância do legislativo estadual sobre questões de interação emocional com IA.

Vários análises jurídicas preveem que até o final de 2026, entre 5 e 10 estados terão propostas semelhantes. Se cada estado legislar de forma independente, com padrões diferentes, o impacto na indústria de IA pode ser muito maior do que qualquer regulamentação federal, pois será necessário cumprir 50 legislações distintas.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar