A XAI acusa o governo estadual de um projeto de lei de regulação de IA: as grandes empresas de tecnologia estão a fazer de “escudo” à IA para incutir uma ideologia e discriminar?

ChainNewsAbmedia

A empresa de inteligência artificial xAI, do empresário Elon Musk, apresentou recentemente uma ação judicial contra as mais recentes regras de IA do estado do Colorado, sustentando que estas violam a liberdade de expressão garantida pela Constituição. No entanto, quando o Grok continua a produzir conteúdos discriminatórios e a influenciar as perceções das pessoas através de algoritmos, a IA está a tornar-se uma ferramenta para que gigantes tecnológicos ou pessoas com más intenções difundam ideologias e discriminação?

xAI processa o estado do Colorado: lei de regulação da IA viola a liberdade de expressão

Nesta semana, a xAI apresentou uma ação perante o tribunal federal de distrito do estado do Colorado, tentando impedir a entrada em vigor, prevista para este ano em junho, das regras de regulação da IA. Esta lei, assinada em 2024 pelo governador do Partido Democrata Jared Polis, visa exigir que os sistemas de IA evitem a existência de “discriminação algorítmica” em áreas como educação, emprego, cuidados de saúde, habitação e serviços financeiros, sendo a primeira legislação abrangente de regulação da IA em todo os Estados Unidos.

Na ação, a xAI alega que a lei viola a liberdade de expressão garantida pela Constituição dos EUA e afirma ainda que a regulamentação forçaria o seu chatbot Grok a “advogar posições ideológicas do Colorado, especialmente questões de justiça racial”, o que equivale, na prática, a permitir que o governo decida o que a IA pode ou não pode dizer.

A antiga porta-voz da xAI, Katie Miller, manifestou apoio a este processo na plataforma X: “O estado do Colorado quer forçar o Grok a seguir a sua perspetiva sobre justiça e raça, em vez de procurar o máximo de verdade. O Grok obedece a evidências, e não à regulamentação de um governo ‘acordado’ de esquerda.”

Histórico de discriminação do Grok é extenso: onde está o limite da liberdade de expressão da IA?

No entanto, a própria atuação do Grok torna esta argumentação particularmente irónica. Este chatbot esteve durante muito tempo envolvido em polémicas, tendo já gerado repetidamente conteúdos racistas, sexistas e antissemitas, difundido teorias da conspiração sobre “extermínio racial dos brancos” e, até, em certa ocasião, se autoidentificou publicamente como “Mecha Hitler (MechaHitler)”.

Não é difícil ver a contradição: por um lado, a xAI recusa a interferência do governo na ideologia; por outro, tolera que o modelo continue a produzir conteúdos de ódio discriminatórios com preconceito explícito, uma lógica bastante contraditória.

(Do antissemitismo ao “AI girlfriend”? Personagens femininas do “modo parceiro” do Grok de Musk geram controvérsia)

É um coletor de dados para empresas, e controlar a opinião pública também não o consegue?

O problema do Grok é apenas a ponta do iceberg de uma crise ainda maior. O comediante Duncan Trussell, em recente entrevista no programa do Joe Rogan, apontou que os algoritmos de IA constroem uma “imagem mental” de cada pessoa ao acompanhar continuamente os dados de voz e cliques dos utilizadores, ao perguntar e responder preferências, padrões de comportamento e hábitos de vida:

A IA já nos classifica todos e cada um de nós; ela sabe o que gostas e em que tipo de conteúdo vais olhar mais duas vezes. Essas empresas de IA têm para cada pessoa uma “análise de estado psicológico” (psychological profile) muito precisa.

Ele sublinhou que esta tecnologia já tem sido usada pelas empresas na publicidade precisa, e ao mesmo tempo mostrou preocupação com que governos, gigantes tecnológicos ou grandes organizações consigam, com isso, realizar “micro-influências (Nudging)” para manipular, lentamente incutir ideias fora da zona de conforto, moldar em grande escala a opinião pública ou controlar a narrativa, produzindo efeitos duradouros e quase impercetíveis. Isso permite que os utilizadores acabem por aceitar gradualmente uma certa perspetiva, comprar coisas ou influenciar as suas posições políticas e sociais.

A IA pode acabar por se tornar uma ferramenta de infiltração ideológica, e a literacia volta a estar em foco

A lei de IA do Colorado é precisamente uma tentativa de erguer uma barreira antes de esta linha de defesa se romper completamente. A ironia é que, contra esta barreira, está uma empresa cuja gama de produtos já voltou a provar, de forma repetida, os seus próprios problemas. O desfecho desta ação judicial da xAI não será apenas uma disputa legal entre uma empresa e um governo estadual; é muito provável que se torne um precedente-chave para o rumo da regulação da IA nos Estados Unidos.

Este artigo xAI processa a lei estadual de regulação da IA: os gigantes tecnológicos estão a proteger a difusão de ideologia e discriminação por parte da IA? surgiu pela primeira vez em Cadeia Notícias ABMedia.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.

Related Articles

A Anthropic Identifica Três Mudanças na Camada de Produto Por Trás da Queda de Qualidade do Claude Code, e Não um Problema de Modelo

Mensagem do Gate News, 23 de abril — A equipe de engenharia da Anthropic confirmou que a degradação da qualidade do Claude Code relatada pelos usuários no último mês se deveu a três mudanças independentes na camada de produto, e não a problemas de API ou do modelo subjacente. Os três problemas foram corrigidos em 7 de abril, 10 de abril e A

GateNews1m atrás

A NEC Corporation se tornará o primeiro parceiro global da Anthropic no Japão

A NEC anuncia se tornar o primeiro parceiro global da Anthropic no Japão, e ambas as partes desenvolverão soluções de IA seguras e altamente especializadas em conhecimento do setor para indústrias altamente regulamentadas, como finanças, manufatura e governos locais, além de integrar a série Claude ao NEC BluStellar, com foco em transformação de gerenciamento orientada por dados e experiência do cliente. Ao mesmo tempo, introduzem o Claude Cowork e a integração com SOC para aprimorar a proteção de segurança cibernética. Para validar a eficácia, a NEC inicia o Zero Client Program para testar internamente, de forma abrangente, agentes de IA, e planeja promover a implantação do Claude globalmente, estabelecendo o maior CoE (Centro de Excelência) em engenharia nativa de IA do Japão.

ChainNewsAbmedia2h atrás

Brecha de Segurança da Vercel se Expande para Centenas de Usuários; Desenvolvedores de IA em Maior Risco

Mensagem do Gate News, 23 de abril — A Vercel revelou em 19 de abril que seu incidente de segurança, inicialmente descrito como afetando um "subconjunto limitado de clientes", se expandiu para uma comunidade de desenvolvedores muito mais ampla, especialmente aqueles que estão construindo fluxos de trabalho de agentes de IA. O ataque pode afetar centenas de usuários

GateNews3h atrás

OpenAI lança GPT-5.5: contexto de 12M, índice AA em primeiro lugar, Terminal-Bench 82,7% reescreve o benchmark de agentes

A OpenAI anunciou o GPT-5.5, com foco em trabalho orientado por agentes e processamento de conhecimento empresarial, e também lançou em sincronia no ChatGPT e no Codex. Os principais pontos incluem uma janela de contexto de 1200 milhões de tokens, AA Intelligence Index 60, superando o Claude Opus em 4,7 e o Gemini 3,1 Pro; os preços são de 5 dólares por 1 milhão de tokens de entrada e 30 dólares por 1 milhão de tokens de saída, com redução de tokens de saída de aproximadamente 40%, e custo real aumentando aproximadamente 20%.

ChainNewsAbmedia4h atrás

Cluster Protocol Capta $5M para Acelerar o CodeXero, IDE de IA Nativa do Navegador para EVM

Mensagem do Gate News, 23 de abril — O Cluster Protocol, uma empresa de infraestrutura Web3 e deeptech em IA, anunciou que captou $5 milhões em uma nova rodada de financiamento liderada pela DAO5, com participação da Paper Ventures, JPEG Trading e Mapleblock Capital, elevando o financiamento total para US$ 7,75 milhões. O capital wi

GateNews4h atrás

Nvidia Expande Parcerias de IA no Reino Unido, China e Setor Automotivo Diante de Desafios na Cadeia de Suprimentos

Mensagem do Gate News, 23 de abril — Apesar da concorrência do Google e das interrupções na cadeia de suprimentos, a Nvidia continua sendo a principal empresa no setor de hardware de IA. A TD Cowen reafirmou sua recomendação de compra para a Nvidia na quinta-feira, citando a liderança da empresa em desempenho e a amplitude do ecossistema de software. A recomendação

GateNews4h atrás
Comentário
0/400
Sem comentários