Já pensaste que, cada vez que conversas com a IA, ou fazes upload de arquivos para análise, as tuas coisas na verdade vão parar a milhares de quilómetros de distância em servidores? Registos de conversação, contratos, fotografias... tudo sob o olhar de outra pessoa. Só podes ficar a olhar e dizer a ti mesmo "deve estar tudo bem" - essa sensação é semelhante a entregar o diário a um estranho, e no fundo, causa um certo desconforto.
Hoje em dia, a IA funciona basicamente assim: para ser rápida e fácil de usar, entregamos todos os dados e controle, mas como tudo é processado e quem pode ver, é completamente uma caixa preta. Uma vez que vaza, vaza tudo, e confiar em quem quer que seja parece arriscado.
Não há uma maneira de jogar que não cause tanta preocupação?
Recentemente vi um projeto chamado Nesa @nesaorg, a ideia é bastante arrojada: a consulta que você envia (por exemplo, "ajude-me a verificar se este contrato tem armadilhas") é criptografada do início ao fim.
Depois, ele divide o grande modelo em uma série de pequenos pedaços e os envia para milhares de nós espalhados pelo mundo para calcular. A parte impressionante é que — 🔹Nenhum nó consegue entender seus dados completos 🔹também não há nenhum nó que consiga obter o modelo completo
Cada nó processa apenas o seu pequeno pedaço de fragmentos criptográficos, calcula e depois junta os resultados, e no final, prova para você verificar a mercadoria, garantindo que ninguém mexeu nas coisas às escondidas.
Esta mudança é, na verdade, bastante concreta: 🔹Os seus dados nunca estiveram expostos, ninguém pode espreitar. 🔹O modelo em si também é mantido em segredo, e quem treina o modelo não tem medo de ser roubado. 🔹A resposta não é apenas a opinião de uma única empresa, mas sim algo que foi validado por toda a rede, tornando-se muito mais confiável.
Para simplificar, você ainda pode usar uma IA muito poderosa, mas todo o processo é visível e verificável, não é mais necessário colocar a privacidade em "por favor, confie em nós".
Para as pessoas comuns, pode ser apenas uma dose extra de tranquilidade;
Para indústrias como finanças, saúde e direito, que frequentemente verificam a conformidade dos seus dados, este pode ser o único caminho ousado para adotar a IA.
@nesaorg @KaitoAI
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
Já pensaste que, cada vez que conversas com a IA, ou fazes upload de arquivos para análise, as tuas coisas na verdade vão parar a milhares de quilómetros de distância em servidores? Registos de conversação, contratos, fotografias... tudo sob o olhar de outra pessoa. Só podes ficar a olhar e dizer a ti mesmo "deve estar tudo bem" - essa sensação é semelhante a entregar o diário a um estranho, e no fundo, causa um certo desconforto.
Hoje em dia, a IA funciona basicamente assim: para ser rápida e fácil de usar, entregamos todos os dados e controle, mas como tudo é processado e quem pode ver, é completamente uma caixa preta. Uma vez que vaza, vaza tudo, e confiar em quem quer que seja parece arriscado.
Não há uma maneira de jogar que não cause tanta preocupação?
Recentemente vi um projeto chamado Nesa @nesaorg, a ideia é bastante arrojada: a consulta que você envia (por exemplo, "ajude-me a verificar se este contrato tem armadilhas") é criptografada do início ao fim.
Depois, ele divide o grande modelo em uma série de pequenos pedaços e os envia para milhares de nós espalhados pelo mundo para calcular. A parte impressionante é que —
🔹Nenhum nó consegue entender seus dados completos
🔹também não há nenhum nó que consiga obter o modelo completo
Cada nó processa apenas o seu pequeno pedaço de fragmentos criptográficos, calcula e depois junta os resultados, e no final, prova para você verificar a mercadoria, garantindo que ninguém mexeu nas coisas às escondidas.
Esta mudança é, na verdade, bastante concreta:
🔹Os seus dados nunca estiveram expostos, ninguém pode espreitar.
🔹O modelo em si também é mantido em segredo, e quem treina o modelo não tem medo de ser roubado.
🔹A resposta não é apenas a opinião de uma única empresa, mas sim algo que foi validado por toda a rede, tornando-se muito mais confiável.
Para simplificar, você ainda pode usar uma IA muito poderosa, mas todo o processo é visível e verificável, não é mais necessário colocar a privacidade em "por favor, confie em nós".
Para as pessoas comuns, pode ser apenas uma dose extra de tranquilidade;
Para indústrias como finanças, saúde e direito, que frequentemente verificam a conformidade dos seus dados, este pode ser o único caminho ousado para adotar a IA.
@nesaorg @KaitoAI