A verificação KYC obrigatória do Claude é lançada; contas em regiões não suportadas enfrentam bloqueio

Claude KYC

A Anthropic implementou de forma abrangente uma verificação de identidade obrigatória (KYC) na sua plataforma Claude, a cargo do fornecedor de serviços terceiro Persona Identities. A oficial define esta medida como uma «verificação completa de conformidade habitual», com o objectivo de evitar abusos, aplicar as políticas da plataforma e assegurar conformidade regulatória. Após a implantação em grande escala desta medida a partir de Abril de 2026, o seu impacto é mais directo para utilizadores localizados em regiões não suportadas, como a China continental.

Condições de disparo da verificação KYC e objectivos oficiais

A verificação KYC (conheça o seu cliente) é um mecanismo de conformidade que plataformas financeiras e tecnológicas utilizam para confirmar a identidade real dos utilizadores. Nesta iniciativa, a Anthropic introduziu a Persona Identities como executor terceiro, exigindo que os utilizadores submetam documentos de identificação válidos e concluam uma verificação de vida em tempo real.

A descrição oficial indica três objectivos centrais desta medida:

Prevenir abusos: identificar operações em massa de contas, utilizações maliciosas automatizadas e outras condutas anormais

Aplicar políticas de utilização: garantir que o uso da plataforma cumpre os Termos de Serviço da Anthropic

Conformidade regulatória: dar resposta às exigências cada vez mais rigorosas dos regulamentos dos EUA e internacionais para fornecedores de serviços de IA

Importa notar que, mesmo que o utilizador complete com sucesso a verificação de passaporte e a verificação de vida, se o sistema detectar que a localização real de utilização da conta se encontra numa região não suportada pela Anthropic, a conta ainda pode ser desactivada após a verificação.

Canais oficiais de recomendação para utilizadores afectados

Para utilizadores que desencadeiam a verificação KYC, a Anthropic recomenda que, após o aparecimento da janela de verificação, preparem prontamente documentos de identificação válidos emitidos pelo governo e dispositivos com câmara de alta definição, concluindo a análise dentro do prazo definido para evitar interrupções do serviço.

Se a conta já tiver sido desactivada, a entidade oficial disponibiliza dois canais formais:

Canal de recurso: preencher o formulário de recurso oficial ou enviar um email para support@anthropic.com, explicando a utilização da conta e as razões do julgamento incorrecto

Pedido de reembolso (para utilizadores pagos): se acabou de concluir a subscrição antes da desactivação da conta, poderá contactar billing@anthropic.com para solicitar reembolso

Deve ter em conta que, de acordo com feedback da comunidade actualmente, a taxa de sucesso dos recursos é relativamente limitada e os reembolsos normalmente exigem múltiplas interacções.

Um contexto mais amplo: tendência de conformidade das plataformas de IA acelera

A implementação obrigatória de KYC por parte da Anthropic não é um caso isolado, mas sim um reflexo das plataformas de serviços de IA num contexto de intensificação da pressão regulatória global. Nos últimos anos, vários mercados principais têm vindo a reforçar continuamente os controlos de exportação de serviços de IA e os requisitos de verificação de utilizadores, o que tem levado as plataformas a apertar gradualmente os mecanismos de verificação de identidade. Para utilizadores em regiões limitadas, encontrar plataformas legais alternativas de serviços de IA — incluindo outros assistentes de IA que suportem a região, ou obter autorização de acesso a API através de canais oficiais — é actualmente a opção mais viável do ponto de vista da conformidade.

Perguntas frequentes

O que é a verificação KYC e por que razão a Anthropic a implementa neste momento?

KYC é a sigla de «conheça o seu cliente», um procedimento padrão de conformidade para plataformas financeiras e tecnológicas verificarem a identidade real dos utilizadores. A implantação em grande escala desta vez, por um lado, responde às exigências de responsabilidade de conformidade que as agências reguladoras dos EUA e internacionais colocam sobre fornecedores de serviços de IA; por outro lado, reflecte necessidades internas de gestão para impedir que a plataforma seja abusada (por exemplo, contas em massa, operações automatizadas).

Para utilizadores em regiões não suportadas, a conta é necessariamente bloqueada?

Não necessariamente. A activação da verificação KYC depende do mecanismo de gestão de risco da plataforma, e nem todas as contas em regiões não suportadas enfrentam imediatamente análise. No entanto, uma vez activado, e se o sistema determinar que a localização real de utilização da conta está numa região limitada, mesmo concluindo a verificação, existe o risco de a conta ser desactivada. Neste momento, a entidade oficial ainda não disponibilizou uma lista clara de isenções.

Que alternativas legais existem para utilizadores afectados?

Para utilizadores que não conseguem passar na verificação KYC do Claude, as alternativas legais a considerar incluem: outras plataformas de serviços de IA que disponibilizem suporte para o mercado local (por exemplo, serviços locais ou internacionais de IA que suportem o mercado da China continental), obter autorização de utilização através de canais de colaboração de API para empresas, ou avaliar serviços de modelos de linguagem de código aberto ou comerciais com capacidades equivalentes.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

A Anthropic Implementa Salvaguardas Eleitorais para o Claude Antes das Eleições Gerais de 2026

A Anthropic anunciou na sexta-feira um conjunto de medidas de integridade eleitoral concebidas para impedir que o seu chatbot de IA Claude seja usado como arma para espalhar desinformação ou manipular eleitores antes das eleições legislativas intercalares dos EUA de 2026 e de outras grandes contendas a nível mundial este ano. A sede da San Francisco-based

CryptoFrontier5h atrás

DeepRoute.ai Sistema avançado de assistência à condução supera o avanço de 300 000 veículos: Objetivo de 2026: uma frota de 1 milhão de veículos NOA da cidade

DeepRoute.ai anuncia que o seu avançado sistema de assistência à condução já foi implantado em mais de 300.000 veículos na China, tendo evitado mais de 180.000 potenciais incidentes ao longo do ano passado. A meta para 2026 é atingir 1 milhão de veículos na frota de NOA urbana, com uma utilização superior a 50%, sendo considerado um fator-chave para a comercialização em larga escala do Robotaxi. Este movimento mostra que a condução autónoma na China entrou numa utilização normalizada, ao mesmo tempo que cria uma distinção em relação ao percurso de integração vertical com os EUA, afetando o calendário da cadeia de abastecimento na Ásia-Pacífico.

ChainNewsAbmedia6h atrás

DeepSeek lança os modelos V4-Pro e V4-Flash a um custo 98% inferior ao do GPT-5.5 Pro da OpenAI

Notícias Gate, 25 de abril — A DeepSeek lançou versões de pré-visualização de V4-Pro e V4-Flash a 24 de abril, ambos modelos open-weight com janelas de contexto de um milhão de tokens. O V4-Pro tem 1,6 triliões de parâmetros no total, mas activa apenas 49 mil milhões por passagem de inferência utilizando uma arquitectura Mixture-of-Experts.

GateNews11h atrás

Juiz rejeita alegações de fraude no processo de Elon Musk contra a OpenAI; caso avança para julgamento com duas alegações remanescentes

Notícias do Gate, 24 de abril — Um juiz federal indeferiu as acusações de fraude do processo de Elon Musk contra a OpenAI, Sam Altman, Greg Brockman e a Microsoft, abrindo caminho para que o caso avance para julgamento com base em duas alegações que permanecem: violação de confiança fiduciária de caráter beneficente e enriquecimento sem causa. EUA.

GateNews15h atrás

O CEO da OpenAI, Sam Altman, pede desculpa por não ter denunciado às autoridades a conta banida do atirador da escola

Mensagem do Gate News, 25 de abril — O director executivo da OpenAI, Sam Altman, pediu desculpa à comunidade de Tamborine, no Canadá, pela falha da empresa em notificar a polícia sobre uma conta banida associada a Jesse Van Rootselaar, que matou oito pessoas numa escola em fevereiro antes de tirar a própria vida. OpenAI

GateNews15h atrás

Os EAU Anunciam uma Mudança Para um Modelo de Governo Baseado em IA nos Próximos Dois Anos

Sua Alteza o Sheikha Mohammed bin Rashid Al Maktoum afirmou que o objectivo era fazer com que 50% dos sectores do governo operassem através de IA agentic autónoma. A transição irá também incluir a formação dos funcionários federais para “dominar a IA” e será supervisionada por Sheikh Mansour bin Zayed. Principais Conclusões:

Coinpedia15h atrás
Comentar
0/400
Nenhum comentário