a16z Fundador: No era do Agente, as coisas realmente importantes mudaram

Autor: a16z

Tradução: FuturePulse

Fonte do sinal: Esta é a última entrevista do fundador da a16z, Marc Andreessen, no podcast Latent Space. Ele é um renomado empreendedor de internet dos Estados Unidos, uma das figuras-chave no desenvolvimento inicial da internet; também, após fundar a16z, tornou-se uma das principais figuras de investimento no Vale do Silício. A conversa toda gira em torno da história do desenvolvimento da IA e das tendências mais recentes, sendo altamente recomendada.

  1. Esta rodada de IA não surgiu do nada, mas é a primeira fase de uma longa corrida de 80 anos de tecnologia que finalmente “começou a trabalhar”

Esta rodada de IA não surgiu do nada, mas é a primeira fase de uma longa corrida de 80 anos de tecnologia que finalmente

Marc Andreessen descreve o momento atual como uma “sucesso repentino de 80 anos”, significando que o que parece uma explosão repentina para o público na verdade é o resultado de décadas de reserva tecnológica sendo liberada de uma só vez.

Ele remonta essa linha de desenvolvimento até as primeiras pesquisas em redes neurais e enfatiza que, hoje, a indústria realmente aceita a avaliação de que “redes neurais são a arquitetura correta”.

Na narrativa dele, os pontos-chave não são momentos isolados, mas uma sequência de eventos empilhados: AlexNet, Transformer, ChatGPT, modelos de raciocínio, até agentes e autoaperfeiçoamento.

Ele destaca especialmente que desta vez não é apenas o fortalecimento da geração de texto, mas a aparição simultânea de quatro categorias de funcionalidades: LLMs, raciocínio, codificação e agentes / autoaperfeiçoamento recursivo.

Ele acredita que “desta vez é diferente” não porque a narrativa seja mais convincente, mas porque essas capacidades já começaram a atuar em tarefas reais.

  1. A arquitetura de agentes representada por Pi e OpenClaw é uma mudança mais profunda na arquitetura de software do que chatbots

Ele explica de forma bastante concreta: essencialmente é “LLM + shell + sistema de arquivos + markdown + cron/loop”. Nesse esquema, o LLM é o núcleo de raciocínio e geração, o shell fornece o ambiente de execução, o sistema de arquivos armazena o estado, o markdown torna o estado legível, e o cron/loop fornece despertadores periódicos e avanço de tarefas.

Ele acredita que a importância dessa combinação está no fato de que, além do modelo em si ser novo, os outros componentes já são partes maduras, compreendidas e reutilizáveis do mundo do software.

O estado do agente é salvo em arquivos, permitindo migração entre modelos e ambientes de execução; o modelo subjacente pode ser substituído, mas a memória e o estado permanecem.

Ele reforça repetidamente a introspecção: o agente sabe seus próprios arquivos, consegue ler seu próprio estado e até reescrever seus arquivos e funções, avançando na direção de “estender a si mesmo”.

Na visão dele, a verdadeira inovação não é apenas “o modelo responde”, mas o agente usar a cadeia de ferramentas Unix existente para aproveitar ao máximo o potencial de toda a máquina.

  1. A era dos navegadores, GUIs tradicionais e “software de clique manual” será gradualmente substituída por uma interação baseada em agentes

Marc Andreessen afirmou claramente que, no futuro, “você talvez não precise mais de uma interface de usuário”.

Ele acrescenta que, no futuro, os principais usuários de software podem não ser humanos, mas “outros bots”.

Isso significa que muitas interfaces atualmente projetadas para cliques, navegação e preenchimento de formulários podem se tornar camadas de execução chamadas por agentes por trás dos sistemas.

Nesse mundo, as pessoas serão mais como quem define objetivos: dizem ao sistema o que querem, e o agente chama os serviços, opera softwares e conclui os processos.

Ele conecta essa mudança a um futuro maior do software: softwares de alta qualidade se tornarão cada vez mais “abundantes”, deixando de ser produtos escassos feitos manualmente por poucos engenheiros.

Ele também prevê que a importância das linguagens de programação diminuirá; os modelos escreverão código entre linguagens, traduzirão entre elas, e, no futuro, as pessoas se preocuparão mais em entender por que a IA organiza o código de determinada forma do que em dominar uma linguagem específica.

Ele até menciona uma direção mais radical: conceitualmente, a IA pode não apenas gerar código, mas também produzir código binário de baixo nível ou pesos de modelos diretamente.

  1. Este ciclo de investimento em IA é semelhante à bolha da internet de 2000, mas a estrutura de oferta e demanda subjacente é diferente

Ele revisita 2000 e destaca que a crise não foi tanto por “a internet não funcionar”, mas por excesso de construção de infraestrutura de banda larga e telecomunicações, com fibras ópticas e data centers sendo implantados de forma prematura, seguidos por um longo período de digestão.

Hoje, ele acredita que também há preocupações com “excesso de construção”, mas os principais investidores são empresas grandes como Microsoft, Amazon e Google, com forte liquidez, ao contrário de players altamente alavancados e frágeis.

Ele destaca que, atualmente, basta um investimento que permita rodar GPUs para que rapidamente gere receita, diferente de 2000, quando havia muita capacidade ociosa.

Ele reforça que estamos usando uma versão “sandbagged” da tecnologia: devido à oferta limitada de GPUs, memória e data centers, o potencial dos modelos ainda não foi totalmente liberado.

Na opinião dele, nos próximos anos, as restrições reais não serão apenas GPUs, mas também CPUs, memória, rede e o ecossistema de chips como um todo, formando gargalos interligados.

Ele compara as leis de escalabilidade da IA às leis de Moore, acreditando que elas não apenas descrevem padrões, mas continuam impulsionando a sinergia entre capital, engenharia e indústria.

Ele menciona um fenômeno incomum, mas importante: com a velocidade de otimização de software aumentando, algumas gerações antigas de chips podem, na prática, se tornar mais valiosas economicamente do que quando foram adquiridas.

  1. Open source, inferência na borda e execução local não são detalhes secundários, mas parte fundamental da competição em IA

Marc Andreessen enfatiza que o open source é extremamente importante, não apenas por ser gratuito, mas por “ensinar o mundo como fazer”.

Ele descreve o lançamento de projetos open source como DeepSeek como uma “doação ao mundo”, pois código e artigos disseminam rapidamente o conhecimento, elevando o padrão de toda a indústria.

Na narrativa dele, open source não é apenas uma escolha técnica, mas também uma estratégia geopolítica e de mercado: diferentes países e empresas adotam estratégias de abertura distintas, baseadas em suas restrições comerciais e objetivos de influência.

Ele reforça a importância da inferência na borda (“Edge inference”): nos próximos anos, o custo de inferência centralizada pode não ser suficiente para aplicações de consumo, tornando a execução local uma necessidade.

Ele cita um padrão recorrente: modelos que hoje parecem impossíveis de rodar em PCs muitas vezes conseguem ser executados localmente alguns meses depois.

Além do custo, fatores como confiança, privacidade, latência e cenários de uso impulsionam a preferência por execução local: dispositivos vestíveis, fechaduras inteligentes, dispositivos pessoais, todos se beneficiam de inferência de baixa latência e local.

Sua avaliação é direta: quase tudo que tem um chip no futuro provavelmente terá um modelo de IA embutido.

  1. Os verdadeiros desafios da IA não estão apenas na capacidade do modelo, mas na segurança, identidade, fluxo de dinheiro, organização e resistência institucional

Na questão da segurança, sua avaliação é bastante contundente: quase todas as vulnerabilidades de segurança potenciais serão mais fáceis de detectar, mas podem gerar uma grande “catástrofe de segurança computacional” a curto prazo.

Por outro lado, ele acredita que agentes inteligentes de programação irão escalar a capacidade de corrigir vulnerabilidades; no futuro, a “proteção de software” pode envolver bots que escaneiam e consertam falhas.

Sobre identidade, ele acha que “prova de bot” não é viável, pois os bots ficarão cada vez mais fortes; a alternativa mais realista é “prova de humano”, combinando biometria, criptografia e divulgação seletiva.

Ele também aborda uma questão frequentemente negligenciada: se os agentes realmente operarem no mundo real, precisarão de dinheiro, capacidade de pagamento, e até de contas bancárias, cartões ou infraestrutura de stablecoins. No nível organizacional, ele usa o conceito de capitalismo gerencial para sugerir que a IA pode reforçar empresas lideradas por fundadores, pois bots são bons em relatórios, coordenação, tarefas administrativas e gestão.

Porém, ele não acredita que a sociedade aceitará rapidamente a IA: cita exemplos de licenças profissionais, sindicatos, greves de trabalhadores portuários, órgãos governamentais, educação K-12 e saúde, mostrando que há muitos obstáculos institucionais.

Sua conclusão é que, tanto os utópicos quanto os apocalípticos da IA, tendem a ignorar um ponto importante: quando a tecnologia se torna possível, isso não significa que 8 bilhões de pessoas irão imediatamente mudar junto.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar