Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Arranque dos futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Centro de Património VIP
Aumento de património premium
Gestão de património privado
Alocação de ativos premium
Fundo Quant
Estratégias quant de topo
Staking
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos RWA
Aqueles que criaram os robôs da OpenAI viram um futuro assustador
Autor: Velho Amigo Geek
Em 7 de março de 2026, quando vi a notícia da demissão de Caitlin Kalinowski, minha primeira reação não foi de choque, mas sim — “Finalmente alguém está agindo de acordo com suas ações”.
Kalinowski é responsável pela engenharia de hardware e robótica da OpenAI, tendo ingressado em novembro de 2024, e em menos de um ano e meio decidiu sair.
Seu motivo foi direto e pesado — ela não consegue aceitar o contrato assinado entre a OpenAI e o Departamento de Defesa dos Estados Unidos, devido às possíveis implicações de vigilância doméstica e uso de armas autônomas.
Não se trata de uma simples fuga de talentos. É alguém que participou ativamente na construção de um corpo de IA, usando sua demissão para dizer ao mundo: ela não quer ser responsável pelo que suas criações possam fazer.
Para entender a saída de Kalinowski, é preciso voltar aproximadamente uma semana no tempo.
Em 28 de fevereiro, Sam Altman anunciou que a OpenAI havia chegado a um acordo com o Departamento de Defesa dos EUA, permitindo que o Pentágono utilizasse os modelos de IA da OpenAI em suas redes classificadas. Assim que a notícia saiu, a controvérsia explodiu.
Curiosamente, a referência desse contrato foi a uma concorrente, a Anthropic.
Pouco antes, a Anthropic havia recusado uma proposta semelhante do Pentágono, insistindo em incluir limites éticos mais rigorosos no contrato. Como resposta, o Secretário de Defesa Pete Hegseth criticou publicamente no X, chamando a postura da Anthropic de uma “aula de arrogância e traição”, e alinhou-se à ordem do governo Trump de interromper a colaboração com a Anthropic.
A OpenAI então assumiu esse negócio.
A reação dos usuários foi bastante intensa. No mesmo dia, a desinstalação do ChatGPT aumentou 295% em relação ao dia anterior, e a campanha #QuitGPT rapidamente tomou conta das redes sociais, com mais de 2,5 milhões de apoiadores em apenas três dias. Aproveitando a situação, Claude superou o ChatGPT e tornou-se o aplicativo mais baixado nos EUA, atingindo o topo da lista de aplicativos gratuitos na Apple App Store.
Sob pressão, Altman admitiu publicamente em 3 de março que “não deveria ter lançado esse contrato de forma precipitada”, alegando que “parecia oportunista e apressado”, e anunciou uma revisão na redação do contrato, deixando claro que “os sistemas de IA não devem ser usados deliberadamente para vigilância doméstica de cidadãos americanos ou de seus próprios funcionários”.
No entanto, a palavra “deliberadamente” por si só é uma brecha. O advogado da Electronic Frontier Foundation apontou de forma incisiva que agências de inteligência e de aplicação da lei frequentemente dependem de dados obtidos por “acaso” ou por “compras comerciais” para contornar proteções de privacidade mais rigorosas — acrescentar “deliberadamente” não equivale a uma restrição real.
A demissão de Kalinowski ocorreu justamente nesse contexto.
01 Ela viu algo mais concreto do que imaginamos
Enquanto a maioria ainda discute se a OpenAI está ou não se comprometendo com o governo, Kalinowski enfrentava uma questão mais específica e cruel — ela e sua equipe estavam construindo robôs.
Engenharia de hardware e robótica não é uma tarefa abstrata de escrever código ou ajustar parâmetros. Trata-se de colocar mãos, pés e olhos na IA. Quando a colaboração entre a OpenAI e o Departamento de Defesa evolui do “uso de modelos” para possíveis aplicações militares de IA com corpo físico, a natureza do trabalho de Kalinowski muda.
Pesquisadores na área de armas autônomas já alertavam há tempos para esse dia.
As políticas atuais do Departamento de Defesa dos EUA não exigem aprovação humana antes do uso de armas autônomas. Em outras palavras, o contrato assinado pela OpenAI tecnicamente não impede que seus modelos se tornem parte de um sistema onde “o GPT decide matar alguém”.
Isso não é alarmismo. Jessica Tillipman, professora de direito de compras governamentais na Universidade de Georgetown, analisando o contrato revisado da OpenAI, afirmou que a redação “não dá à OpenAI uma liberdade semelhante à da Anthropic para proibir o uso legal pelo governo”, apenas declara que o Pentágono não pode usar a tecnologia da OpenAI para violar “leis e políticas existentes” — mas as leis atuais já deixam uma enorme lacuna na regulamentação de armas autônomas.
Especialistas em governança da Universidade de Oxford também têm uma avaliação semelhante, considerando que o acordo da OpenAI “não é suficiente para preencher” as falhas estruturais deixadas pela vigilância doméstica alimentada por IA e pelos sistemas de armas autônomas na governança.
A saída de Kalinowski é uma resposta pessoal a essa avaliação.
02 O que está acontecendo dentro da OpenAI
Kalinowski não foi a primeira a sair, e provavelmente não será a última.
Dados indicam que a rotatividade na equipe de ética e segurança de IA da OpenAI já atingiu 37%, e a maioria dos que saíram alegou “conflito com os valores da empresa” ou “incapacidade de aceitar o uso militar da IA”. A cientista de pesquisa Aidan McLaughlin escreveu internamente que “pessoalmente, acho que essa negociação não vale a pena”.
Vale notar que essa onda de saídas ocorreu justamente durante uma fase de rápida expansão do portfólio comercial da OpenAI. Logo após a controvérsia do contrato de defesa, a empresa anunciou a ampliação do acordo com a AWS de 38 bilhões de dólares para 100 bilhões de dólares, com prazo de oito anos; além de reajustar suas metas de gastos públicos, prevendo que até 2030 sua receita total ultrapassará 280 bilhões de dólares.
O crescimento comercial continua, enquanto a equipe de segurança continua a sair. Essa disparidade é o eixo mais importante para entender a situação atual da OpenAI.
O valor de uma empresa se reflete, em última análise, no que ela consegue reter e no que não consegue. Quando as pessoas mais preocupadas com “como essa tecnologia será usada” começam a sair, é fácil prever para onde a estrutura organizacional tende a se mover.
A Anthropic escolheu outro caminho — recusou o contrato, enfrentou a ira do Departamento de Defesa, mas conquistou a confiança de muitos usuários. Naquele período, as downloads do Claude aumentaram contra a tendência, provando que “recusar com princípios” pode não ser uma estratégia perdedora no mundo dos negócios.
Por outro lado, a Anthropic também pagou um preço — foi excluída pelo governo, pelo menos por enquanto.
Esse é o verdadeiro dilema: nenhuma escolha é perfeita.
Recusar pode significar perder influência ou ser excluído da formulação de regras. Aceitar significa usar sua tecnologia para validar ações que você não consegue controlar completamente.
A resposta de Kalinowski foi uma terceira via — sair.
Essa foi a coisa mais honesta que ela pôde fazer.
03 A guerra pelo espírito do Vale do Silício acaba de começar
Se ampliarmos o olhar, o significado dessa questão vai muito além da demissão de uma pessoa.
A integração entre IA e militar é uma questão que o setor enfrentará cedo ou tarde. O Pentágono tem orçamento, demanda e capacidade tecnológica para isso, e não vai parar de oferecer oportunidades às empresas de IA. E essas empresas — seja a OpenAI, que busca AGI, a Anthropic, que enfatiza a segurança, ou outros players — terão que dar suas respostas a essa questão inevitavelmente.
A estratégia de Altman é tentar aceitar a realidade comercial, ao mesmo tempo em que define limites por meio da redação dos contratos. Mas, como apontaram vários especialistas em direito e governança, essas redações parecem mais uma proteção de relações públicas do que restrições técnicas concretas.
A questão mais profunda é que, quando modelos de IA são implantados em redes classificadas e começam a participar de decisões militares, o mundo externo não consegue verificar se as “garantias” estão realmente sendo cumpridas.
A falta de transparência é, por si só, o maior risco.
Kalinowski passou menos de um ano e meio na OpenAI, mas, neste momento, decidiu sair. Ela não fez declarações longas, não apontou nomes ou criticou alguém explicitamente, apenas usou suas ações para marcar seus limites.
De certa forma, isso é mais poderoso do que qualquer artigo de política.
Engenharia de hardware e robótica de IA eram, originalmente, uma das áreas mais empolgantes do Vale do Silício. Quando Kalinowski saiu, ela levou não apenas seu currículo, mas uma questão para todos que permanecem na indústria: até onde você está disposto a ser responsável pelo que criou?