Acabei de ler algo que me deixou bastante inquieto sobre o que está acontecendo realmente na OpenAI. Resulta que recentemente o The New York Times publicou uma investigação onde jornalistas como Ronan Farrow entrevistaram mais de 100 pessoas e obtiveram documentos internos que nunca tinham sido revelados antes. A história que surge daí é bastante mais sombria do que o que se sabia publicamente.



O detalhe mais forte: Ilya Sutskever, o principal cientista da OpenAI, escreveu um memorando de 70 páginas há alguns anos onde basicamente documentou um padrão consistente. Sua conclusão inicial foi direta: Sam demonstra um comportamento de mentir sistematicamente para executivos e para o diretório. Não é especulação, são casos concretos. Por exemplo, em dezembro de 2022, Sam garantiu em reunião de diretoria que as funções do GPT-4 tinham passado por revisão de segurança. Quando pediram para ver os documentos, descobriram que duas das características mais controversas nunca foram aprovadas pelo painel de segurança.

Mas o que mais me chamou a atenção foi o que encontraram nas notas privadas de Dario Amodei, o fundador da Anthropic que trabalhou na OpenAI. Mais de 200 páginas onde ele documentou como a empresa foi recuando passo a passo sob pressão comercial. Amodei descobriu que a Microsoft inseriu uma cláusula de veto que basicamente anulou a garantia de segurança que mais valorizava em toda a transação. Desde o dia da assinatura, ficou em papel molhado.

Há outro detalhe que deixa o cabelo em pé. A OpenAI anunciou publicamente que destinaria 20% de sua capacidade de computação a uma equipe de superalineação, com um valor potencial superior a um bilhão de dólares. O anúncio foi extremamente sério, falando de riscos existenciais para a humanidade. A realidade, segundo quatro pessoas que trabalharam nessa equipe, era que a potência de computação real era entre 1% e 2%, e era o hardware mais antigo. Depois, a equipe foi dissolvida sem completar sua missão.

O absurdo é que, quando os jornalistas pediram para entrevistar o pessoal responsável pela pesquisa sobre segurança existencial, a resposta de relações públicas foi que isso não é algo que realmente exista na OpenAI.

E isso aconteceu justo quando veio à tona que a CFO Sarah Friar tem divergências sérias com o Sam. Friar acredita que a OpenAI não está pronta para abrir capital neste ano, mas Sam quer impulsionar a IPO. O mais estranho é que Friar já não reporta diretamente ao Sam, mas a outro executivo que está de licença por motivos de saúde. Uma empresa se preparando para uma IPO com essa estrutura interna.

Executivos internos da Microsoft já não aguentam mais isso. Dizem que Sam distorce fatos, incumpre promessas e revoga constantemente acordos. Um chegou a compará-lo a Bernie Madoff ou SBF.

Um ex-membro do conselho descreveu assim: Sam tem uma combinação extremamente rara de qualidades. Em cada interação face a face, tem um forte desejo de agradar, mas ao mesmo tempo mostra uma indiferença quase sociopática diante das consequências de enganar os outros. Para um vendedor, é o dom mais perfeito.

O que me preocupa é que a OpenAI não é uma empresa de tecnologia comum. Segundo suas próprias palavras, estão desenvolvendo possivelmente a tecnologia mais poderosa da história humana. Podem reconfigurar a economia global, os mercados de trabalho, e, segundo seu próprio documento, também podem ser usadas para criar armas bioquímicas ou ataques cibernéticos. Todas as salvaguardas de segurança ficaram em nada. A missão sem fins lucrativos deu lugar à corrida por uma IPO.

O ex-cientista principal e o ex-responsável pela segurança consideram o CEO pouco confiável. Será que realmente nos sentimos seguros deixando que uma única pessoa decida unilateralmente quando lançar modelos de IA que podem mudar o destino da humanidade?

A resposta da OpenAI foi concisa: que o artigo reitera eventos já reportados usando afirmações anônimas e anedotas seletivas. Sam não respondeu às acusações específicas, não negou a autenticidade do memorando, apenas questionou os motivos.

Dez anos da OpenAI resumidos: um grupo de idealistas preocupado com riscos de IA criou uma organização sem fins lucrativos. Conseguiu avanços extraordinários. O capital chegou em massa. A missão começou a ceder. A equipe de segurança foi dissolvida. Os críticos foram eliminados. A estrutura sem fins lucrativos se transformou em entidade com fins lucrativos. O conselho que antes podia fechar a empresa agora está cheio de aliados do CEO. A empresa que se comprometeu a dedicar 20% de sua potência de computação para segurança agora tem relações públicas dizendo que isso não existe.

Mais de cem testemunhas presenciais deram a mesma etiqueta: não está sujeita à verdade. E está prestes a levar essa empresa à IPO com uma avaliação superior a 850 bilhões de dólares.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar