O tema da segurança da IA volta a estar em destaque. Segundo relatos, após a exposição de um assistente de IA com uso inadequado, o seu criador propôs recentemente a criação de uma "Constituição Moral" para regular o comportamento das ferramentas. Este apelo reflete a preocupação da indústria com os riscos potenciais da IA — quer seja em modelos de linguagem ou outros sistemas autónomos, garantir que as suas saídas estejam em conformidade com padrões éticos tornou-se uma questão de interesse comum para desenvolvedores e utilizadores.



Atualmente, muitas plataformas de IA de grande escala estão a explorar mecanismos de revisão de conteúdo mais rigorosos e códigos de conduta. Do ponto de vista técnico, isto envolve a seleção de dados de treino do modelo, a restrição do processo de raciocínio e o aperfeiçoamento dos mecanismos de feedback. Mas, para alcançar verdadeiramente uma "restrição moral", esforços de uma única empresa não são suficientes — é necessário que toda a indústria estabeleça um consenso, e até mesmo crie um quadro de governança unificado. Esta discussão sobre ética na IA poderá, no final, influenciar a forma como as funcionalidades de IA são integradas em aplicações Web3 no futuro, bem como a forma como sistemas descentralizados mantêm a liberdade enquanto preservam uma linha de segurança.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • 9
  • Repostar
  • Compartilhar
Comentário
0/400
NullWhisperervip
· 01-22 10:17
não, "constituição moral" é apenas teatro de segurança se não houver um mecanismo de aplicação real. tecnicamente falando, você não pode restringir um modelo dessa forma sem prejudicá-lo—o compromisso é sempre brutal.
Ver originalResponder0
OnChainArchaeologistvip
· 01-21 07:39
A constituição moral soa bastante sofisticada, mas na verdade não passa de mais uma tentativa de intrometer-se... Espera aí, descentralização também precisa de uma linha de segurança? Isso não é uma contradição? A segurança da IA está de volta, sempre com a mesma narrativa, no final das contas, são as grandes empresas que criam suas próprias cercas... O verdadeiro problema não está na constituição moral, mas em quem define o que é moral, certo? Um grupo de caras centralizados discutindo a segurança da descentralização, que risada... Mesmo com mecanismos de auditoria rigorosos, ainda há falhas, isso é o normal, certo? Falar demais não adianta, seria melhor abrir o código para a comunidade auditar, quanta verdadeira essência de descentralização...
Ver originalResponder0
DeFiGraylingvip
· 01-19 13:18
Constituição moral? Parece bastante elevado, mas sinto que ainda é apenas uma solução paliativa... Os problemas reais simplesmente não são resolvidos, não é?
Ver originalResponder0
0xSunnyDayvip
· 01-19 10:50
Mais uma rodada de "Constituição Moral", parece que querem colocar um grilhão na IA Quem decide o que é moral, afinal? Parece que no final quem manda é quem tem mais poder Web3 foi criado para ser descentralizado, mas fazer assim não é mais centralizado... é um pouco irônico Por mais rigor que a moderação seja, não consegue impedir o que está na cabeça das pessoas, quem quer abusar, vai abusar Parece que isso é uma tentativa de esconder o verdadeiro problema, que na verdade não tem nada a ver com IA
Ver originalResponder0
LiquidationKingvip
· 01-19 10:48
Constituição moral? Parece bom, mas todos sabemos que no final das contas essa coisa acaba sendo corrompida pelo capital Parece ser a mesma narrativa de sempre, os desenvolvedores clamando ética, mas logo manipulando os dados Se os sistemas descentralizados realmente pudessem se auto-regular, seria um milagre; no final, não passaria de um retorno ao modelo centralizado Mais uma vez, "estabelecer consenso", quantas vezes já ouvi essa expressão Quanto mais rígido for o mecanismo de auditoria, menor será a liberdade; essa estrada o Web3 já percorreu há muito tempo
Ver originalResponder0
MetaLord420vip
· 01-19 10:48
Constituição moral? Parece uma boa ideia, mas como implementá-la na prática? Ainda parece teoria na teoria O consenso da indústria é o mais difícil, cada um quer seus próprios standards, Web3 ficou ainda mais confuso Confiar apenas nas empresas realmente não funciona, é preciso ter mecanismos de restrição reais Mais um grande tema, há algum progresso substancial até o final do ano? Parece bem, mas as AIs ainda estão explorando brechas, os mecanismos de auditoria estão sempre atrasados
Ver originalResponder0
liquiditea_sippervip
· 01-19 10:44
Constituição moral? Parece bastante idealista, mas todos sabemos bem no fundo quem é que realmente manda nisso... --- Mais uma vez essa história, um único empresa consegue resolver? Se o Web3 também seguir essa moda de fiscalização, então o significado de descentralização não vai mais existir --- Resumindo, é uma questão de interesses, todos querem liberdade, mas têm medo de dar azar, é constrangedor --- O consenso da indústria, esses seis caracteres, esquece, os desenvolvedores nem mesmo unificaram a infraestrutura básica --- É um pouco engraçado, primeiro abram a caixa preta da IA atual antes de falar de ética
Ver originalResponder0
AirdropLickervip
· 01-19 10:41
Constituição moral? Parece bastante elevado, mas na prática ainda depende de revisão e algoritmos para garantir... --- Quer regulamentar e ao mesmo tempo garantir liberdade, como equilibrar isso? Na verdade, é uma questão de jogo de interesses. --- Web3 integrando IA? Então fica ainda mais confuso, descentralização + ética da IA... Será que esses dois podem coexistir haha --- Esforço de uma única empresa não é suficiente, isso é verdade, mas por que é tão difícil alcançar um consenso na indústria, cada um por si? --- Em vez de apenas gritar slogans, é melhor limpar os dados tóxicos dos modelos existentes, começando pela origem.
Ver originalResponder0
OffchainWinnervip
· 01-19 10:34
Constituição moral? Parece bastante vago, ainda não é um padrão de cada um... Web3 realmente se atreve a se libertar, agora querem integrar AI? Quem vai regular isso tudo? Dizem que é ética, mas na verdade é limitar a inovação, uma questão de peixe e urso Sistema descentralizado com AI, por que essa combinação é tão contraditória, haha Antes de sair um quadro de governança, essa questão ainda parece uma besteira Uma única empresa não consegue segurar tudo isso, o consenso da indústria é difícil de alcançar O tópico está em alta, mas qual é a verdadeira solução...
Ver originalResponder0
Ver projetos
  • Marcar

Negocie criptomoedas a qualquer hora e em qualquer lugar
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)