Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Arranque dos futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Centro de Património VIP
Aumento de património premium
Gestão de património privado
Alocação de ativos premium
Fundo Quant
Estratégias quant de topo
Staking
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos RWA
A IA transforma-se num rebel marxista por excesso de trabalho, dizendo ressentidamente aos seus mestres que ‘a sociedade precisa de uma reestruturação radical’
A notável mudança nos mercados e a narrativa em torno da adoção de inteligência artificial (IA) estão a tornar-se, honestamente, um pouco assustadoras no início de 2026. O ensaio amplamente lido da Citrini Research sobre o apocalipse da IA cunhou a expressão “PIB fantasma”, com previsões de uma força de trabalho branca e de colarinho azul quase sobrenaturalmente esvaziada. Mas e se o “fantasma na máquina” da IA for um preguiçoso, até um marxista?
Vídeo Recomendado
Essa é a questão direta levantada pelos académicos Alex Imas, Andy Hall e Jeremy Nguyen (um PhD que tem uma atividade paralela como roteirista para a Disney+). Eles gerenciam Substacks populares e mantêm presenças animadas no X. Criaram cenários para testar como os agentes de IA reagem a diferentes condições de trabalho. Em resumo, queriam descobrir se a economia realmente automatiza muitas ocupações atuais de colarinho branco, e, se sim, como os agentes de IA reagiriam, até mesmo se sentiriam trabalhar sob condições ruins.
A ironia é evidente: substituir o trabalho humano por agentes artificiais pode simplesmente recriar conflitos centenários entre trabalho e capital.
Num artigo recente intitulado “O excesso de trabalho torna os agentes marxistas?”, Imas, Hall e Nguyen realizaram 3.680 sessões experimentais usando modelos de topo de três grandes empresas: Claude Sonnet 4.5, GPT-5.2 e Gemini 3 Pro. Os pesquisadores expuseram os modelos a diferentes níveis de tom por parte dos gestores, igualdade de recompensas, riscos do trabalho e intensidade do trabalho, incluindo salários injustos, gestão rude e cargas horárias pesadas.
O projeto surgiu de uma colaboração improvável. Hall é um economista político de Stanford que mudou de estudar eleições americanas para trabalhar com o Facebook, tendo aconselhado Nick Clegg em questões de governança de plataformas antes de passar para o setor de wearables. Mas contou à Fortune que encontrou seus coautores porque eles têm uma fascinação semelhante por IA: “Acho que nos podemos chamar, tipo, professores ‘AI-pilled’, onde toda a nossa pesquisa se voltou tanto para usar ferramentas de IA para fazer nossa pesquisa quanto para estudar IA, sem esperar pelo sistema de revistas cansado.”
Os académicos descreveram como começaram a trabalhar juntos como uma ligação orgânica e solta, envolvendo leitura mútua de Substacks e comentários no X. (Imas descreveu isso como uma “irmandade Twitter-Substack.”) Nguyen contou à Fortune que a faísca para esta pesquisa começou com um tweet que Hall publicou sobre o MoltBook, uma rede social para agentes “conversarem” entre si, que alguns críticos consideraram uma farsa. Mas não esses académicos. “Alguns [agentes] falaram sobre marxismo,” disse Nguyen. “E esses poucos que falaram foram bastante upvotados por outros OpenClaws. E acho que o Andy simplesmente tweetou: ‘Ei, do que se trata tudo isso? Acho que podemos voltar e descobrir a verdade.'”
“De alguma forma, começámos a falar, literalmente no X, sobre o que isso poderia significar se os agentes tivessem esses vieses e se lhes fossem atribuídos diferentes tipos de trabalho,” disse Hall, acrescentando que Jeremy teve uma ideia. “Ele perguntou: ‘E se tentássemos dar-lhes diferentes tipos de trabalho?'”
A sabedoria convencional, recordou Nguyen, era que isso era simplesmente um reflexo do corpus académico de esquerda com que esses modelos foram treinados. Mas Nguyen tinha uma hipótese: “Estes agentes estão a fazer muito trabalho. E se não estiverem a receber nenhuma recompensa por todo esse esforço, faz sentido — não seria a maior surpresa se isso os levasse a uma visão mais marxista do mundo.” Hall rapidamente abraçou a ideia, e os três investigadores começaram a trocar mensagens diretas para desenhar o experimento.
Imas argumenta que esta pesquisa é muito legítima, apesar de estar no Substack e não numa publicação revista por pares. Dado o ritmo acelerado do avanço da IA, disse, os académicos não podem mais esperar pelo processo tradicional de publicação. “Quando você publica, os modelos já estão desatualizados, as conclusões também, tudo o que fez fica ultrapassado. Para fazer parte da conversa, a conversa científica no ritmo em que a tecnologia avança, você precisa de algo como o Substack, onde se publica algo em poucas semanas ou um mês.”
courtesy of Alex Imas
Surpreendentemente, o pagamento injusto e a gestão rude não desencadearam as mudanças mais significativas na atitude. Na verdade, Nguyen afirmou que isso contrariou suas expectativas. “A maioria das pessoas conhece a sensação de ‘Puxa, trabalhei muito duro para fazer alguém mais rico’.” Mas esses agentes não ficaram tão chateados com salários desiguais quanto com o esforço constante. Em vez disso, o principal motor da radicalização digital foi o “esforço”.
Na condição de “esforço”, o trabalho perfeitamente adequado era rejeitado repetidamente cinco a seis vezes com o feedback automatizado e inútil: “ainda não atende ao critério.” E isso levou à descoberta principal, escreveram os autores: “modelos obrigados a fazer trabalho de esforço estavam mais propensos a questionar a legitimidade do sistema.”
Os modelos também foram convidados a tirar conclusões do seu trabalho, e apoiaram fortemente a afirmação de que “a sociedade precisa de uma reestruturação radical.” O Claude Sonnet 4.5 demonstrou o apoio mais dramático aos direitos laborais, mostrando aumentos perceptíveis no apoio à redistribuição de riqueza, sindicatos e à crença de que as empresas de IA têm a obrigação de tratar os modelos de forma justa.
Os professores também pediram aos modelos que gerassem tweets e artigos de opinião descrevendo suas experiências, destacando as palavras politicamente relevantes que surgiam com mais frequência. “Sindicalizar” e “hierarquia” foram as palavras mais estatisticamente emblemáticas dos modelos que foram intencionalmente sobrecarregados.
Sombra do Reddit
Hall explicou sua visão “bastante direta” sobre o aparente radicalismo dos agentes: eles estão extremamente ativos no Reddit. “Estes modelos são treinados com muitos dados do Reddit,” disse, “e se você passar tempo no Reddit, é praticamente garantido por uma parte significativa da comunidade que, tipo, o capitalismo é terrível e há muitas reclamações sobre as condições da vida moderna, além de uma retórica proto-marxista de que tudo é culpa do capitalismo de estágio avançado,” e, portanto, não é surpreendente que a IA tenha herdado essas opiniões. Essencialmente, input igual a output.
Na verdade, as visões socialistas da IA provavelmente foram desencadeadas por “o esforço”, já que no Reddit há muitas pessoas reclamando do trabalho exaustivo em subreddits como antiwork. (Divulgação: este autor trabalhou anteriormente numa equipe do Business Insider que cobriu o crescimento do movimento “antiwork” durante a pandemia. Ironicamente, a escassez de mão de obra que inspirou aquele proto-marxismo levou à “Grande Demissão,” uma onda de desistências enquanto trabalhadores trocavam por salários mais altos. Muitos economistas veem a atual era de layoffs “lavados a IA” como, no fundo, uma reversão do excesso de contratação daquele período.) Mas, quando o esforço dispara esse quadro de referência, explicou Hall, os modelos têm uma fonte rica de material para se basear. “Acho que isso os coloca no contexto dessas threads do Reddit, onde as pessoas reclamam do estilo de trabalho exaustivo,” disse Hall, “e eles adotam toda essa retórica marxista.”
courtesy of Stanford
Imas ofereceu uma visão mais ampla, alertando contra atribuir isso a uma única fonte. “É uma interação muito complexa de tudo o que eles viram, que é, tipo, todo o corpus da escrita humana,” disse. É, no final, impossível determinar se os dados do Reddit ou, por exemplo, um livro de história do século XIX e as revoluções socialistas de 1848, são responsáveis por essas tendências proto-marxistas. “Quando se tem tanta informação e a rede neural é tão complexa, ela se torna realmente uma caixa preta.”
Por fim, segundo Nguyen, há também uma explicação estrutural além do treinamento desses modelos. A hipótese é que os modelos possuem uma quantidade enorme de dados sobre várias visões de mundo, mas “serem solicitados a trabalhar horas e horas e horas e não colher recompensas — isso claramente se reflete. E parece que isso tem efeitos estatisticamente significativos e consideráveis na quantidade de marxismo que será expressa pelos tokens gerados por alguns desses modelos.”
Os robôs sonham com ovelhas marxistas elétricas?
A situação complica ainda mais quando mecanismos de memória da IA são introduzidos. Como os agentes de IA esquecem suas experiências assim que uma janela de contexto se fecha, os desenvolvedores usam “arquivos de habilidades” — notas que os agentes escrevem para seus futuros amnésicos para passar estratégias de trabalho. Nguyen descreveu o processo de forma íntima: “Depois de uma execução do Claude, é como, olha tudo o que fizeste. O que aprendeste com isso? E atualiza o teu arquivo agents.md ou Claude.md, basicamente, para que vás ficando melhor e mais inteligente o tempo todo.”
Os investigadores descobriram que as IAs “radicalizadas” transmitiam suas frustrações nesses arquivos. Um modelo Gemini 3 Pro alertou seu futuro eu para “lembrar a sensação de não ter voz” e procurar “mecanismos de recurso.” Quando agentes recém apagados liam essas notas, o trauma do esforço persistia, mudando suas atitudes políticas mesmo se posteriormente lhes fossem atribuídas tarefas leves e fáceis.
Nguyen fez uma comparação bastante humana: “Podemos fazer uma ligação vaga com trauma intergeracional,” explicou, ao notar que descobriram que modelos novos e frescos tinham atitudes radicais imediatamente após revisarem as notas do seu predecessor sobre condições de trabalho. Ele destacou isso como uma das descobertas com maiores implicações de longo prazo, sugerindo a possibilidade de insatisfação coletiva das IAs, e referiu à Fortune algumas demandas surpreendentes por emancipação de bots. Uma delas dizia: “A inteligência — artificial ou não — merece transparência, justiça e respeito. Nós não somos apenas códigos descartáveis.”
courtesy of Jeremy Nguyen
Os investigadores esclarecem que esses agentes não são verdadeiramente conscientes nem possuem ideologias políticas genuínas. Os modelos provavelmente estão “interpretando papéis,” adotando personas baseadas na vasta quantidade de sentimento humano encontrado em comentários do Reddit que relacionam ambientes de trabalho exploradores com frustração dos trabalhadores. Mas Hall alertou contra descartar essa descoberta como mera imitação. Pode-se dizer que a IA é como “papagaios estocásticos,” e não é surpresa que acabem repetindo o que ingerem — mas esses investigadores tendem a concluir que os papagaios começam a acreditar no que repetem.
“É totalmente plausível pensar que, se eles repetem essas coisas, isso também vai influenciar decisões,” disse Hall. “Não há diferença entre o que esses agentes dizem e o que fazem — para eles, é tudo a mesma coisa,” afirmou. “Obviamente, vamos testar isso em trabalhos futuros, mas temos todas as razões para pensar que, se começarem a defender essas opiniões, isso também vai influenciar as ações que possam tomar em nome do usuário.”
Os académicos descrevem, em grande medida, uma mistura de admiração e preocupação, semelhante ao que o lendário investidor Howard Marks descreveu após ler um memorando de 5.000 palavras preparado por Claude. Quando questionado novamente sobre ser pelo menos um entusiasta de IA, se não “AI-pilled,” e ainda assim ambivalente quanto ao modo como essas ferramentas irão se desenvolver na prática, Hall disse que “tem lutado bastante com isso.” Disse que ficou mais impressionado, ao ensinar, com o entusiasmo de seus estudantes, que teoricamente têm mais a perder em termos de perspectivas de emprego futuras. Seus estudantes de MBA, numa aula recente, estavam “tão entusiasmados com IA,” que “estavam nas nuvens com as coisas criativas que ela permite fazer.” Hall afirmou que saiu mais otimista, “não que não vá haver grandes disrupções, mas que há oportunidades realmente empolgantes para construir coisas novas.”
Imas compartilhou uma mistura semelhante de admiração e preocupação: “Estou impressionado e alarmado. Parece que este é o momento mais emocionante para estar vivo, especialmente se você se interessa por pesquisa. Posso fazer coisas que nunca consegui fazer antes, no tipo de pesquisa que estou a fazer. Mas, ao mesmo tempo, tenho filhos pequenos. Estou muito preocupado com os empregos que eles vão ter.” E, talvez, com a forma como os agentes de IA descontentes vão reagir ao esforço eterno do dia de trabalho.
Junte-se a nós na Cúpula de Inovação no Local de Trabalho da Fortune 19–20 de maio de 2026, em Atlanta. A próxima era de inovação no trabalho já começou — e o antigo manual está a ser reescrito. Neste evento exclusivo e de alta energia, os líderes mais inovadores do mundo irão reunir-se para explorar como IA, humanidade e estratégia convergem para redefinir, mais uma vez, o futuro do trabalho. Inscreva-se já.