Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Pre-IPOs
Desbloqueie o acesso completo a IPO de ações globais
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
Anthropic exige verificação de identidade KYC! Algumas funções do Claude precisarão do upload de documentos de identidade, aumentando a pressão regulatória
Anthropic anuncia mecanismo de autenticação para ativação de algumas funções do Claude, onde os usuários precisam fornecer documentos de identidade com foto emitidos pelo governo, com parceiros sendo Personas Identities. A iniciativa visa prevenir abusos, aplicar políticas de uso e cumprir requisitos regulatórios, mas também levanta preocupações sobre segurança de dados e aumento das barreiras de uso.
(Preâmbulo: Anthropic assina o bloqueio do Claude Code contra OpenClaw! Daqui para frente, ferramentas de terceiros só poderão usar limites pagos)
(Complemento de contexto: Modelos de IA de ponta estão se diversificando: ChatGPT para C, Claude para B)
Índice deste artigo
Alternar
Na última (14), Anthropic discretamente lançou um arquivo de instruções de autenticação na página de suporte do Claude, anunciando oficialmente que algumas funções do Claude passarão a exigir verificação de identidade, com a declaração oficial: “Usar tecnologia poderosa de forma responsável começa por saber quem a está usando”.
O objetivo da autenticação abrange três aspectos: prevenir abusos, aplicar políticas de uso e cumprir obrigações legais.
Atualmente, essa política é apenas “aplicável em certas situações”, não sendo obrigatória de forma geral. Os usuários podem encontrar prompts de verificação nas seguintes circunstâncias: ao acessar funções avançadas, durante verificações de integridade do sistema de rotina, ou ao ativar medidas de segurança e conformidade.
Processo de verificação: passaporte ou carteira de motorista
Segundo a explicação oficial, para completar a verificação é necessário preparar:
Um documento válido emitido pelo governo com foto (arquivo físico, não uma cópia digital ou captura de tela), e um smartphone ou computador equipado com câmera para realizar o procedimento.
Os tipos de documentos aceitos incluem passaporte, carteira de motorista ou carteira de identidade nacional. Documentos explicitamente não aceitos incluem: cópias digitalizadas, capturas de tela, documentos digitais ou mobile, documentos não emitidos pelo governo, e documentos temporários em papel.
Nota: Anthropic escolheu Personas Identities como parceiro tecnológico para a verificação.
Como os dados são protegidos? Anthropic declara que não manipula os dados originais
Anthropic afirma claramente que é o “controlador dos dados”, mas a responsabilidade pelo processamento real fica a cargo da Persona, e o sistema da Anthropic não mantém imagens de documentos ou selfies dos usuários; esses dados são coletados e armazenados pela Persona.
O uso pela Persona é limitado por contrato, podendo ser apenas para autenticação de identidade e prevenção de fraudes, sem extensão a outros fins. Todos os dados são criptografados durante transmissão e armazenamento estático.
Além disso, a empresa reforça duas declarações negativas, excluindo explicitamente: os dados não serão usados para treinar modelos, nem compartilhados com terceiros para marketing ou publicidade. A Anthropic afirma coletar apenas o mínimo necessário de informações.
O que fazer se a verificação falhar? Condições de banimento de conta também divulgadas
Se a verificação não for bem-sucedida, o usuário pode tentar várias vezes ou entrar em contato com a equipe de suporte via formulário.
Importante notar que a Anthropic também divulgou as condições que levam ao banimento da conta, incluindo: violação das políticas de uso, origem de região não suportada, violação dos termos de serviço, ou uso por menores de 18 anos. Usuários banidos podem contestar por meio de um formulário de apelação.
Pressões regulatórias tornam isso inevitável, mas o aumento de barreiras gera dúvidas
Não é difícil imaginar que essa política surge no contexto de requisitos regulatórios globais cada vez mais rigorosos para provedores de IA.
Para a Anthropic, acelerar a implementação no setor empresarial (Claude to B) e estabelecer uma base de usuários verificáveis é uma condição essencial para atrair clientes de setores altamente regulados, como financeiro, saúde e jurídico.
Por outro lado, do ponto de vista do usuário, grupos que utilizavam Claude de forma anônima ou com baixa fricção — como pesquisadores ou usuários preocupados com privacidade — podem ficar receosos.
Embora a empresa destaque que os dados não ficam armazenados nos sistemas da Anthropic, a estrutura de “terceirizar a guarda” ainda levanta dúvidas sobre privacidade, que precisarão de tempo para serem esclarecidas.
Atualmente, as condições que ativam o mecanismo de verificação ainda não são totalmente transparentes: quais “funções específicas” exigirão verificação, se a abrangência será ampliada, tudo isso será importante de acompanhar. Caso esse mecanismo seja futuramente vinculado a planos de assinatura ou uso de API, o impacto na comunidade de desenvolvedores será mais direto.