Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Pre-IPOs
Desbloqueie o acesso completo a IPO de ações globais
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
Promoções
Centro de atividade
Participe de atividades e ganhe recompensas
Indicação
20 USDT
Convide amigos para recompensas de ind.
Programa de afiliados
Ganhe recomp. de comissão exclusivas
Gate Booster
Aumente a influência e ganhe airdrops
Anúncio
Atualizações na plataforma em tempo real
Blog da Gate
Artigos do setor de criptomoedas
AI
Gate AI
Seu parceiro de IA conversacional para todas as horas
Gate AI Bot
Use o Gate AI diretamente no seu aplicativo social
GateClaw
Gate Blue Lobster, pronto para usar
Gate for AI Agent
Infraestrutura de IA, Gate MCP, Skills e CLI
Gate Skills Hub
10K+ habilidades
Do escritório à negociação: um hub completo de habilidades para turbinar o uso da IA
GateRouter
Escolha inteligentemente entre mais de 30 modelos de IA, com 0% de taxas extras
Acabei de ler algo que me deixou bastante inquieto sobre o que está acontecendo realmente na OpenAI. Resulta que recentemente o The New York Times publicou uma investigação onde jornalistas como Ronan Farrow entrevistaram mais de 100 pessoas e obtiveram documentos internos que nunca tinham sido revelados antes. A história que surge daí é bastante mais sombria do que o que se sabia publicamente.
O detalhe mais forte: Ilya Sutskever, o principal cientista da OpenAI, escreveu um memorando de 70 páginas há alguns anos onde basicamente documentou um padrão consistente. Sua conclusão inicial foi direta: Sam demonstra um comportamento de mentir sistematicamente para executivos e para o diretório. Não é especulação, são casos concretos. Por exemplo, em dezembro de 2022, Sam garantiu em reunião de diretoria que as funções do GPT-4 tinham passado por revisão de segurança. Quando pediram para ver os documentos, descobriram que duas das características mais controversas nunca foram aprovadas pelo painel de segurança.
Mas o que mais me chamou a atenção foi o que encontraram nas notas privadas de Dario Amodei, o fundador da Anthropic que trabalhou na OpenAI. Mais de 200 páginas onde ele documentou como a empresa foi recuando passo a passo sob pressão comercial. Amodei descobriu que a Microsoft inseriu uma cláusula de veto que basicamente anulou a garantia de segurança que mais valorizava em toda a transação. Desde o dia da assinatura, ficou em papel molhado.
Há outro detalhe que deixa o cabelo em pé. A OpenAI anunciou publicamente que destinaria 20% de sua capacidade de computação a uma equipe de superalineação, com um valor potencial superior a um bilhão de dólares. O anúncio foi extremamente sério, falando de riscos existenciais para a humanidade. A realidade, segundo quatro pessoas que trabalharam nessa equipe, era que a potência de computação real era entre 1% e 2%, e era o hardware mais antigo. Depois, a equipe foi dissolvida sem completar sua missão.
O absurdo é que, quando os jornalistas pediram para entrevistar o pessoal responsável pela pesquisa sobre segurança existencial, a resposta de relações públicas foi que isso não é algo que realmente exista na OpenAI.
E isso aconteceu justo quando veio à tona que a CFO Sarah Friar tem divergências sérias com o Sam. Friar acredita que a OpenAI não está pronta para abrir capital neste ano, mas Sam quer impulsionar a IPO. O mais estranho é que Friar já não reporta diretamente ao Sam, mas a outro executivo que está de licença por motivos de saúde. Uma empresa se preparando para uma IPO com essa estrutura interna.
Executivos internos da Microsoft já não aguentam mais isso. Dizem que Sam distorce fatos, incumpre promessas e revoga constantemente acordos. Um chegou a compará-lo a Bernie Madoff ou SBF.
Um ex-membro do conselho descreveu assim: Sam tem uma combinação extremamente rara de qualidades. Em cada interação face a face, tem um forte desejo de agradar, mas ao mesmo tempo mostra uma indiferença quase sociopática diante das consequências de enganar os outros. Para um vendedor, é o dom mais perfeito.
O que me preocupa é que a OpenAI não é uma empresa de tecnologia comum. Segundo suas próprias palavras, estão desenvolvendo possivelmente a tecnologia mais poderosa da história humana. Podem reconfigurar a economia global, os mercados de trabalho, e, segundo seu próprio documento, também podem ser usadas para criar armas bioquímicas ou ataques cibernéticos. Todas as salvaguardas de segurança ficaram em nada. A missão sem fins lucrativos deu lugar à corrida por uma IPO.
O ex-cientista principal e o ex-responsável pela segurança consideram o CEO pouco confiável. Será que realmente nos sentimos seguros deixando que uma única pessoa decida unilateralmente quando lançar modelos de IA que podem mudar o destino da humanidade?
A resposta da OpenAI foi concisa: que o artigo reitera eventos já reportados usando afirmações anônimas e anedotas seletivas. Sam não respondeu às acusações específicas, não negou a autenticidade do memorando, apenas questionou os motivos.
Dez anos da OpenAI resumidos: um grupo de idealistas preocupado com riscos de IA criou uma organização sem fins lucrativos. Conseguiu avanços extraordinários. O capital chegou em massa. A missão começou a ceder. A equipe de segurança foi dissolvida. Os críticos foram eliminados. A estrutura sem fins lucrativos se transformou em entidade com fins lucrativos. O conselho que antes podia fechar a empresa agora está cheio de aliados do CEO. A empresa que se comprometeu a dedicar 20% de sua potência de computação para segurança agora tem relações públicas dizendo que isso não existe.
Mais de cem testemunhas presenciais deram a mesma etiqueta: não está sujeita à verdade. E está prestes a levar essa empresa à IPO com uma avaliação superior a 850 bilhões de dólares.