Resultados da pesquisa por "LLM"
Hoje
05:03

a16z: Os modelos de negócio dos agentes de IA desafiam a lógica da publicidade na internet, com o mercado global de publicidade online a atingir 291 mil milhões de dólares em 2025

Notícia Gate News: Em 23 de março, dados da Mordor Intelligence mostram que o tamanho do mercado global de publicidade online em 2025 será aproximadamente 291 mil milhões de dólares, dominado principalmente pela Google. a16z aponta que desde 1997 até 2024, o modelo comercial central da Internet foi monetizado através da captura de uma parte da atenção do utilizador por publicidade. No entanto, modelos de linguagem grande (LLM) e agentes de IA não serão perturbados por publicidade, e a lógica fundamental da tradicional "dispersão de atenção" deixou de ser válida.
Mais
13:08

A Tether lança o framework BitNet LoRA, suportando o treino de grandes modelos em dispositivos móveis

Gate News informa que, a 17 de março, QVAC Fabric, subsidiária da Tether, lançou a primeira estrutura de micro-ajuste LoRA multiplataforma global dirigida ao BitNet da Microsoft (LLM de um bit), reduzindo significativamente os requisitos de memória de GPU e poder computacional para treino de grandes modelos. A estrutura suporta micro-ajuste LoRA e aceleração de inferência em Intel, AMD, Apple Silicon série M e GPUs móveis (incluindo Adreno, Mali e Apple Bionic).
Mais
07:09

Cofundador da Sentry questiona se LLM retarda a velocidade de desenvolvimento, afirmando que OpenClaw gera código excessivo e é difícil de salvar

O cofundador da Sentry, David Cramer, afirma que os grandes modelos de linguagem não melhoraram a produtividade, mas pelo contrário, resultaram na geração de código complexo que atrasa a velocidade de desenvolvimento. Ele questiona a abordagem de geração automática de código, argumentando que a qualidade da produção é inferior, especialmente em desenvolvimento incremental e consistência de estilo. Com base em sua experiência pessoal, ele aponta que a construção de software continua a ser difícil, e as mudanças ao nível psicológico afetaram as suas contribuições.
Mais
11:02

O Instituto de Tecnologia da Informação e Comunicação da China, em colaboração com universidades, descobriu e corrigiu a vulnerabilidade crítica de injeção de comandos OpenClaw

O Instituto de Telecomunicações da China e equipas universitárias descobriram uma vulnerabilidade de injeção de comandos acionada por LLM no módulo bash-tools do framework de código aberto OpenClaw durante uma auditoria. Os atacantes podem executar comandos remotos maliciosos através de engenharia social e roubar dados. O processo de divulgação de vulnerabilidades foi iniciado e foram apresentadas recomendações de correção.
Mais
09:32

Fundador Conjunto da AMI Labs Xie Saining: LLM é, em certa medida, "anti-Bitter Lesson", o modelo mundial é o futuro

Xie Saining criticou em entrevista a actual trajectória de desenvolvimento de IA centrada em grandes modelos de linguagem, argumentando que restringe a aprendizagem da IA sobre o mundo real e enfatizando as vantagens dos modelos de mundo. Ele acredita que criar agentes inteligentes capazes de sobreviver na realidade é mais desafiador, mencionando que AMII Labs se concentra na recolha de dados reais e planeia lançar óculos de IA inteligentes e robôs no futuro.
Mais
06:07

Subnet Bittensor concluiu pré-treinamento LLM de 720 mil milhões de parâmetros, TAO subiu 54,8% nas últimas duas semanas

A subnet Bittensor Templar completou o pré-treinamento do modelo de linguagem descentralizado Covenant-72B com 72 mil milhões de parâmetros a 10 de março. O modelo apresentou um desempenho excecional no teste MMLU, superando múltiplos modelos de referência centralizados. O projeto atraiu a colaboração de mais de 70 nós, com todos os pesos e pontos de verificação lançados sob licença Apache. Impactado por esta notícia, a Bittensor e o seu token registaram ganhos generalizados.
Mais
TAO5,4%
03:37

ETH Zurich testou a capacidade de consenso de blockchain do AI Agent: taxa de sucesso de apenas 41,6%

A equipa de investigação do ETH Zürich testou a capacidade de consenso bizantino do Agente LLM, descobrindo que mesmo sem nós maliciosos, a taxa de consenso eficaz é de apenas 41,6%. À medida que o número de nós aumenta, a dificuldade de alcançar um acordo também aumenta, e a situação piora ainda mais com a adição de nós maliciosos. A conclusão do estudo indica que, atualmente, o Agente LLM não é confiável para consenso fiável, devendo a implantação descentralizada ser abordada com cautela.
Mais
ETH2,59%
03:07

Andrej Karpathy lança projeto de código aberto autoresearch, que executa automaticamente cem vezes experimentos de treino de LLM

O fundador da Eureka Labs, Andrej Karpathy, lançou em código aberto em 8 de março o projeto autoresearch, que adota o modelo "humano escreve Markdown, IA escreve código", permitindo que os desenvolvedores definam direções de pesquisa através de program.md, com a IA otimizando o código de forma autônoma. Pode realizar cerca de 12 experimentos por hora, com 83 experimentos apresentados, dos quais 15 tiveram melhorias eficazes. O projeto é baseado em GPU NVIDIA e PyTorch, foi testado em H100 e segue a licença MIT.
Mais
06:54

A plataforma de agentes de IA Clawnch e a Bankr estabeleceram uma parceria, com a Bankr tornando-se o lançador subjacente para a emissão de seus tokens

Clawnch e Bankr estabelecem uma parceria estratégica, com a Bankr a tornar-se na plataforma subjacente para a emissão de tokens do Clawnch. Ao mesmo tempo, a gateway LLM da Bankr será uma parte central do novo projeto OpenClawnch do Clawnch. Esta colaboração visa fortalecer a infraestrutura do Clawnch, com as taxas de emissão de projetos a serem ajustadas de forma moderada.
Mais