Escaneie para baixar o app da Gate
qrCode
Mais opções de download
Não me lembre de novo hoje

Ex-cientista da OpenAI: O poder de computação atingiu o limite, a indústria de IA deve retornar ao núcleo da pesquisa

O ex-cientista-chefe da OpenAI e atual co-fundador da SSI, Ilya Sutskever, falou em uma recente entrevista sobre como os modelos de IA são quase invencíveis em vários testes, avaliações e competições, mas a vida cotidiana da maioria das pessoas não foi completamente transformada. Ele acredita que essa discrepância entre “super desempenho em testes de avaliação e experiência comum” se deve à dependência excessiva da indústria nos últimos anos da fórmula de sucesso de “acumular poder de computação, acumular dados e acumular parâmetros de modelo”. No entanto, o corpus natural disponível para pré-treinamento é limitado, e essa abordagem eventualmente encontrará um gargalo. O desenvolvimento da IA nos próximos anos entrará em uma nova fase, onde não se tratará mais de quem tem mais GPUs, mas sim de quem consegue encontrar novos princípios de aprendizado, entender a generalização e tornar o modo de aprendizado da IA mais próximo do humano.

O enredo de ficção científica está a acontecer, mas a vida não mudou muito.

Na abertura da entrevista, o apresentador descreveu o atual desenvolvimento da IA e a atmosfera de toda a área da baía de São Francisco, como se fosse completamente um enredo de ficção científica. No entanto, o paradoxo é que, mesmo com os investimentos globais em IA alcançando facilmente dezenas ou centenas de bilhões de dólares, e até acumulando perto de 1% do PIB de vários países, a sensação do cotidiano das pessoas comuns não mudou radicalmente.

A maioria das pessoas só vê os gigantes da tecnologia anunciarem a expansão de centros de dados ou quanto mais estão gastando em GPUs nas notícias, mas das ruas aos becos, as mudanças visíveis na IA ainda são bastante limitadas.

Sutskever aceita essa afirmação e aponta que a capacidade do modelo é realmente poderosa, mas no ambiente familiar das pessoas, a sensação não será tão impressionante quanto em um laboratório ou relatório de pesquisa; essa discrepância é, na verdade, um fenômeno normal.

Avaliação de testes de capacidade extremamente forte, mas o desempenho prático frequentemente falha.

Sutskever falou sobre a “dupla face” do modelo. Ele afirmou que a IA muitas vezes pode demonstrar níveis que superam os humanos em avaliações de programas, testes padronizados ou vários benchmarks, mas uma vez que é aplicada a necessidades reais, enfrenta situações completamente diferentes. Ele deu o exemplo de que muitos desenvolvedores pedem ao modelo para ajudar a corrigir bugs. O modelo geralmente aponta o problema e fornece uma correção com muita confiança, mas o próximo passo muitas vezes introduz novos erros.

Quando você pede novamente para corrigir o segundo erro, pode acabar reintroduzindo o primeiro bug, formando um ciclo entre os dois erros. Sutskever acredita que essa contradição de “super desempenho em testes, instabilidade no mundo real” é um dos fenômenos de IA mais dignos de compreensão aprofundada atualmente.

Para testar o treinamento, levando o modelo a desviar do mundo real

Ao analisar as causas da disparidade, Sutskever apontou que atualmente as grandes empresas, ao realizar aprendizado por reforço, frequentemente ajustam o comportamento do modelo em função de tarefas de avaliação pública. Pois, ao se destacarem nas avaliações, conseguem vantagem em conferências de lançamento, apresentações para investidores e comparações técnicas. Isso faz com que os modelos se tornem extremamente poderosos nesses cenários de teste, mas, ao enfrentarem situações reais e mutáveis, não conseguem demonstrar a mesma capacidade.

Ele fez uma analogia com competições de programação. Um competidor que treina 10.000 horas para ganhar o campeonato pode realmente obter resultados impressionantes na competição. Outro que treinou apenas 100 horas, mas possui uma compreensão inata de certos problemas, pode ter uma carreira mais flexível a longo prazo. O modelo atualmente é como o primeiro:

“Altamente treinado, extremamente forte em tarefas fixas, mas carece da capacidade de generalização profunda ao estilo humano.”

A onda de expansão de modelos está em alta, e o espaço de pesquisa foi drasticamente comprimido.

Sutskever revisita, de 2012 a 2020, pode-se dizer que foi o “período dourado da pesquisa” em IA, com vários setores explorando ativamente diferentes estruturas e métodos, e muitos avanços surgindo de várias ideias inovadoras. No entanto, o sucesso do GPT-3 e a lei da expansão do modelo mudaram completamente a direção. Desde então, toda a indústria começou a formar um consenso:

“Aumentar o modelo, aumentar os dados e aumentar o poder de computação, a capacidade irá naturalmente aumentar.”

Esta abordagem seguindo fórmulas tornou-se a corrente principal no mercado de investimentos e nas grandes empresas devido ao baixo risco e aos resultados previsíveis. Mas também porque todos adotam a mesma estratégia, o espaço para pesquisa real acaba sendo comprimido.

Os dados naturais são limitados, e o pré-treinamento acabará por encontrar obstáculos.

Sutskever enfatizou que o corpus natural disponível na internet é limitado, e o que sustenta o treinamento de grandes modelos de linguagem são esses textos. Após anos de expansão, as empresas já estão perto de “usar até o máximo” todo o corpus disponível. Quando a quantidade de dados não puder mais dobrar, a melhoria de desempenho trazida apenas pela ampliação do modelo e do poder de computação começará a desacelerar claramente.

Ele acredita que isso representa que a IA está prestes a entrar na próxima fase, não mais apenas buscando modelos maiores, mas sim reentendendo como os humanos aprendem, como a generalização se forma, se os modelos podem se auto-corrigir com menos amostras, e se, durante o processo de aprendizagem, podem ter a capacidade de avaliação intermediária como os humanos, em vez de depender apenas do feedback final para determinar a direção do comportamento.

Esses problemas não podem ser resolvidos apenas com a quantidade de GPUs, mas requerem pesquisa científica real.

(Nota: Pré-treinamento, significa que o modelo lê um grande volume de textos da internet para aprender a estrutura da linguagem e conhecimentos básicos, formando a base para habilidades subsequentes. A maioria dos grandes modelos utiliza o pré-treinamento como a primeira fase. )

O aprendizado reforçado leva a uma explosão do poder de computação, e a eficiência acaba sendo inferior ao esperado.

Sutskever também mencionou que, nos últimos anos, o treinamento de aprendizado por reforço (RL) de muitas empresas superou até mesmo o pré-treinamento. Essas simulações de longas sequências consomem uma grande quantidade de Poder de computação, mas o aprendizado efetivo trazido por cada simulação é, na verdade, limitado, o que diminui a eficiência geral. Se continuar a depender do mesmo método de treinamento, apenas se investirá mais recursos, mas será difícil ultrapassar os limites essenciais do modelo.

Assim, ele acredita que a indústria de IA está gradualmente voltando para a fase de pesquisa de “exploração de novos métodos”, onde o foco não está mais em quem possui o maior datacenter, mas sim em quem consegue encontrar novos princípios de aprendizado.

(Nota: Aprendizado por Reforço, significa que o modelo cresce através de um método de treinamento baseado em tentativa e erro, recebendo feedback ou recompensas após completar uma tarefa e ajustando seu comportamento com base nisso.)

Concentre-se em entender e aprender, falaremos sobre o modelo de negócios depois.

Sutskever afirmou que a estratégia da SSI é focar na pesquisa, especialmente na compreensão da generalização, modos de aprendizagem humanos e como os modelos podem se autoaperfeiçoar com um número reduzido de demonstrações. Ele acredita que, em vez de apressar-se em encontrar um modelo de negócio, é melhor concentrar-se em descobrir uma estrutura de aprendizagem mais fundamental do que o pré-treinamento; assim que houver um avanço, várias aplicações comerciais começarão a surgir.

Ele estima que, nos próximos 5 a 20 anos, haverá a oportunidade de criar uma IA cuja “eficiência de aprendizado se iguala à humana”. Uma vez que as máquinas consigam dominar novas habilidades tão rapidamente quanto os humanos, e com o seu desdobramento em larga escala, a capacidade geral apresentará um crescimento exponencial, aproximando-se da superinteligência.

A diferença entre avaliação e aplicação irá desaparecer com o surgimento de novas formas de aprendizagem.

Sutskever afirmou que a razão pela qual a atual revolução da IA parece não ser tão drástica é porque ainda existe um claro descompasso entre a capacidade dos modelos e a forma como são utilizados. Quando os modelos evoluírem de serem capazes de fazer testes para serem capazes de aprender, corrigir-se a si mesmos, generalizar continuamente e crescer de forma estável, a IA irá transformar a vida global a uma velocidade extremamente rápida.

Até lá, as pessoas não verão apenas grandes investimentos nas notícias, mas sentirão verdadeiramente a mudança no dia a dia.

Este artigo, ex-cientista da OpenAI: o poder de computação chegou ao limite, a indústria de IA deve retornar ao núcleo da pesquisa. Apareceu pela primeira vez na Chain News ABMedia.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar
Negocie criptomoedas a qualquer hora e em qualquer lugar
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)