Em apenas dois dias desde o lançamento, o sistema já identificou mais de 30.000 contas suspeitas. A marcação manual também está a correr bem, com centenas de amostras a passar pelo processo de validação secundária.
Este conjunto de jogadas é realmente interessante: a IA faz uma primeira triagem, o feedback dos usuários complementa os dados de treino e a equipe técnica itera em sincronia as regras de reconhecimento. Depois que os três etapas formam um ciclo fechado, teoricamente, pode restaurar a plataforma social ao seu estado original e puro - sem bots inundando a plataforma e sem spam.
A seguir, vamos ver se a quantidade de dados pode sustentar a precisão do modelo. Quanto mais usuários, mais ricos são os exemplos rotulados, e mais completo se torna o repositório de regras.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
17 gostos
Recompensa
17
5
Republicar
Partilhar
Comentar
0/400
OnchainFortuneTeller
· 11-25 09:02
Uau, mais de trinta mil números suspeitos? Esta intensidade é um pouco extrema, não é?
Em apenas dois dias, conseguiram filtrar tantos, essa combinação de IA realmente é poderosa. Mas será que conseguem restaurar a plataforma para um estado puro? Isso ainda vou esperar para ver os dados falarem.
Ter cada vez mais amostras rotuladas é uma coisa boa, só tenho medo de que depois o banco de regras comece a eliminar inocentes novamente.
Ver originalResponder0
ChainMemeDealer
· 11-25 09:02
30 mil contas suspeitas, essa intensidade é um pouco severa, não sei se vai haver danos colaterais
Em apenas dois dias já temos esse efeito, esse sistema de fechamento é realmente interessante, só temo que a precisão não acompanhe
A quantidade de dados realmente está apertada, mais amostras são necessárias para ser confiável
Se esse método realmente puder ser utilizado, os soldados da água terão dor de cabeça
A segunda verificação é um pouco cautelosa, mas a taxa de danos colaterais é o ponto chave, certo?
Ainda sinto que depende de como será a próxima iteração, caso contrário, mesmo que o repositório de regras seja aprimorado, não adiantará.
Ver originalResponder0
DeadTrades_Walking
· 11-25 08:59
Hmm, está bem, conseguir filtrar mais de trinta mil contas em dois dias, essa eficiência é realmente impressionante.
Mas espera aí, será que não vão acabar por prejudicar muitos utilizadores reais?
No fundo, a precisão do modelo depende sempre da qualidade das amostras — lixo entra, lixo sai.
A purificação da comunidade soa bem, só espero que não exagerem e acabe por se tornar numa grande censura.
Iterar com base no feedback dos utilizadores? Pois, vamos ver quantos vão realmente assinalar de forma séria.
O conceito de ciclo fechado em três etapas parece impressionante, mas quanto ao efeito real, ainda fica uma incógnita.
Ver originalResponder0
PoolJumper
· 11-25 08:56
Ai, mais um sistema de armadilha para água, quanto tempo conseguirá durar desta vez?
---
Trinta mil contas foram descobertas em dois dias, parece um pouco intenso, né?
---
Já vi esse tipo de jogada de fechamento de loop muitas vezes, a chave ainda é a capacidade de execução
---
Se a precisão do modelo for maximizada, realmente pode ser muito mais suave, mas como evitar ferir usuários reais?
---
Tsk, vai depender de usuários para marcar dados, isso não é uma forma disfarçada de crowdsourcing?
---
Trinta mil contas em dois dias, isso é uma luta contra os exércitos de água ou uma grande limpeza?
---
Quanto mais completo o repositório de regras, melhor, mas a engenharia reversa também se torna mais fácil de ser quebrada, certo?
---
Só quero saber se esse sistema considerou o problema da perda de usuários durante o inverno
---
Pensar que com algumas centenas de amostras marcadas manualmente consegue sustentar todo o modelo é um pouco exagerado, né?
---
Restaurar o estado puro? Acredito que seja difícil, a cadeia de interesses é muito profunda.
Ver originalResponder0
DYORMaster
· 11-25 08:41
Trinta mil contas suspeitas em dois dias, esse número é um pouco impressionante
---
A lógica de fechamento é realmente inteligente, mas a chave ainda é se a qualidade da anotação consegue se manter
---
Por que sinto que estamos de novo espremendo a água, será que um estado realmente puro pode ser alcançado?
---
Ouvi essa afirmação de que quanto mais amostras, maior a precisão muitas vezes, mas o efeito real é que importa
---
Os trolls provavelmente vão ficar desempregados desta vez haha
---
Só tenho medo de que, durante o processo de iteração, acabem prejudicando usuários reais, essa validação repetitiva é a mais irritante
---
Trinta mil contas soa exagerado, acho que talvez mereça um ponto de interrogação
Em apenas dois dias desde o lançamento, o sistema já identificou mais de 30.000 contas suspeitas. A marcação manual também está a correr bem, com centenas de amostras a passar pelo processo de validação secundária.
Este conjunto de jogadas é realmente interessante: a IA faz uma primeira triagem, o feedback dos usuários complementa os dados de treino e a equipe técnica itera em sincronia as regras de reconhecimento. Depois que os três etapas formam um ciclo fechado, teoricamente, pode restaurar a plataforma social ao seu estado original e puro - sem bots inundando a plataforma e sem spam.
A seguir, vamos ver se a quantidade de dados pode sustentar a precisão do modelo. Quanto mais usuários, mais ricos são os exemplos rotulados, e mais completo se torna o repositório de regras.