A OpenAI, a Anthropic e a Google lançam um mecanismo conjunto para detetar comportamentos de destilação de IA

AI蒸餾行為

De acordo com um relatório da Bloomberg a 16 de Abril, a OpenAI, a Anthropic PBC e a Google já iniciaram uma colaboração através da organização sem fins lucrativos do sector Frontier Model Forum, partilhando informações para detectar e impedir a prática de “model extraction” por meio de modelos de IA adversaria que violam os termos de serviço. A OpenAI confirmou à Bloomberg que já participou no trabalho de partilha de informações sobre model extraction adversaria.

Quadro de cooperação: mecanismo de partilha de informações do Frontier Model Forum

O Frontier Model Forum foi criado em 2023 conjuntamente pela OpenAI, a Anthropic, a Google e a Microsoft. De acordo com a Bloomberg, as três empresas trocam actualmente informações através desta organização, com o objectivo de identificar pedidos massivos de dados adversaria, acompanhar tentativas de model extraction que violem os termos de serviço e coordenar a prevenção de actividades relacionadas. A Google já publicou um artigo no blog indicando que detectou um aumento das tentativas de extracção de modelos.

De acordo com a Bloomberg, este tipo de modelo de partilha de informações está em linha com práticas existentes na indústria da segurança informática, que há muito utiliza a troca interempresarial de dados de ataques e das estratégias dos adversários para reforçar a defesa.

Memorando do Congresso da OpenAI e registo de alegações relacionadas

De acordo com um memorando (fevereiro de 2026) apresentado pela OpenAI à House Select Committee on China dos Estados Unidos, a OpenAI acusa a empresa chinesa de IA DeepSeek de tentar “aproveitar-se” de “tecnologia desenvolvida pela OpenAI e outros laboratórios de ponta dos EUA”, e afirma que esta continua a utilizar técnicas de model extraction de dados para extrair resultados de modelos dos EUA a fim de desenvolver uma nova versão de um chatbot, com métodos cada vez mais complexos.

A Anthropic publicou uma declaração em fevereiro de 2026, na qual identificou três laboratórios de IA chineses — DeepSeek, Moonshot e MiniMax — e acusou-os de extrair ilegalmente funcionalidades do modelo Claude através de model extraction adversaria. A Anthropic tinha já, em 2025, proibido empresas chinesas de utilizar o Claude. A Bloomberg também tinha noticiado anteriormente que, após a DeepSeek ter lançado o modelo de raciocínio R1 em janeiro de 2025, a Microsoft e a OpenAI iniciaram investigações sobre se houve extracção ilegal de dados de modelos dos EUA.

Posicionamento da administração Trump e limitações de conformidade antitrust

De acordo com documentos de políticas públicas, responsáveis do governo Trump indicaram que estão dispostos a promover a partilha de informações entre empresas de IA para fazer face às ameaças de model extraction adversaria. O plano de acção em matéria de Inteligência Artificial anunciado pelo Presidente Trump apela explicitamente à criação de centros de partilha de informações e de análise, sendo um dos objectivos precisamente responder a estas acções.

De acordo com a Bloomberg, o âmbito da partilha de informações sobre model extraction por via tecnológica entre as três empresas continua a ser limitado, uma vez que elas não têm certeza sobre quais informações poderão ser partilhadas em conformidade com as actuais orientações antitrust; as três empresas afirmaram que pretendem alargar o âmbito da cooperação após o governo dos EUA clarificar os quadros orientadores relevantes.

Perguntas frequentes

A OpenAI, a Anthropic e a Google cooperam através de que organização?

De acordo com a Bloomberg, as três empresas fazem partilha de informações através do Frontier Model Forum, uma organização criada em 2023 conjuntamente pela OpenAI, a Anthropic, a Google e a Microsoft, sendo uma organização sem fins lucrativos do sector.

Que conteúdo apresentou a OpenAI ao Congresso dos EUA sobre o problema do AI model extraction?

De acordo com informação divulgada pela OpenAI, a OpenAI apresentou um memorando (fevereiro de 2026) à House Select Committee on China, nos EUA, acusando a DeepSeek de continuar a extrair resultados de modelos dos EUA através de técnicas de model extraction de dados e de usar isso para desenvolver uma nova versão de um chatbot.

Que acções já publicadas tomou a Anthropic sobre o problema de model extraction dos laboratórios de IA chineses?

De acordo com a declaração pública da Anthropic, a Anthropic proibiu em 2025 empresas chinesas de utilizar o modelo Claude e, em fevereiro de 2026, identificou três laboratórios de IA chineses — DeepSeek, Moonshot e MiniMax — acusando-os de extrair ilegalmente funcionalidades do modelo Claude através de model extraction adversaria.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

A Anthropic Implementa Salvaguardas Eleitorais para o Claude Antes das Eleições Gerais de 2026

A Anthropic anunciou na sexta-feira um conjunto de medidas de integridade eleitoral concebidas para impedir que o seu chatbot de IA Claude seja usado como arma para espalhar desinformação ou manipular eleitores antes das eleições legislativas intercalares dos EUA de 2026 e de outras grandes contendas a nível mundial este ano. A sede da San Francisco-based

CryptoFrontier1h atrás

DeepRoute.ai Sistema avançado de assistência à condução supera o avanço de 300 000 veículos: Objetivo de 2026: uma frota de 1 milhão de veículos NOA da cidade

DeepRoute.ai anuncia que o seu avançado sistema de assistência à condução já foi implantado em mais de 300.000 veículos na China, tendo evitado mais de 180.000 potenciais incidentes ao longo do ano passado. A meta para 2026 é atingir 1 milhão de veículos na frota de NOA urbana, com uma utilização superior a 50%, sendo considerado um fator-chave para a comercialização em larga escala do Robotaxi. Este movimento mostra que a condução autónoma na China entrou numa utilização normalizada, ao mesmo tempo que cria uma distinção em relação ao percurso de integração vertical com os EUA, afetando o calendário da cadeia de abastecimento na Ásia-Pacífico.

ChainNewsAbmedia2h atrás

DeepSeek lança os modelos V4-Pro e V4-Flash a um custo 98% inferior ao do GPT-5.5 Pro da OpenAI

Notícias Gate, 25 de abril — A DeepSeek lançou versões de pré-visualização de V4-Pro e V4-Flash a 24 de abril, ambos modelos open-weight com janelas de contexto de um milhão de tokens. O V4-Pro tem 1,6 triliões de parâmetros no total, mas activa apenas 49 mil milhões por passagem de inferência utilizando uma arquitectura Mixture-of-Experts.

GateNews8h atrás

Juiz rejeita alegações de fraude no processo de Elon Musk contra a OpenAI; caso avança para julgamento com duas alegações remanescentes

Notícias do Gate, 24 de abril — Um juiz federal indeferiu as acusações de fraude do processo de Elon Musk contra a OpenAI, Sam Altman, Greg Brockman e a Microsoft, abrindo caminho para que o caso avance para julgamento com base em duas alegações que permanecem: violação de confiança fiduciária de caráter beneficente e enriquecimento sem causa. EUA.

GateNews11h atrás

O CEO da OpenAI, Sam Altman, pede desculpa por não ter denunciado às autoridades a conta banida do atirador da escola

Mensagem do Gate News, 25 de abril — O director executivo da OpenAI, Sam Altman, pediu desculpa à comunidade de Tamborine, no Canadá, pela falha da empresa em notificar a polícia sobre uma conta banida associada a Jesse Van Rootselaar, que matou oito pessoas numa escola em fevereiro antes de tirar a própria vida. OpenAI

GateNews11h atrás

Os EAU Anunciam uma Mudança Para um Modelo de Governo Baseado em IA nos Próximos Dois Anos

Sua Alteza o Sheikha Mohammed bin Rashid Al Maktoum afirmou que o objectivo era fazer com que 50% dos sectores do governo operassem através de IA agentic autónoma. A transição irá também incluir a formação dos funcionários federais para “dominar a IA” e será supervisionada por Sheikh Mansour bin Zayed. Principais Conclusões:

Coinpedia11h atrás
Comentar
0/400
Nenhum comentário