З фундаментальної точки зору, ці два підходи фактично слідують одному й тому ж основному логічному принципу. Вони говорять про одну проблему: щоб модель могла досягти довгострокової послідовності пам’яті та стабільності розуміння, лише використання фіксованого вікна контексту та збереження ваг не достатньо. Це обмеження визначає верхню межу поточної архітектури. Іншими словами, справжнє "розуміння" потребує виходу за межі параметричних обмежень самої моделі — це фундаментальна проблема, яку потрібно вирішити у всій архітектурі штучного інтелекту.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
12 лайків
Нагородити
12
5
Репост
Поділіться
Прокоментувати
0/400
LightningSentry
· 1год тому
По суті, сучасна архітектура великих моделей з самого початку має вади, і навіть збільшення кількості параметрів не зможе її врятувати.
Переглянути оригіналвідповісти на0
ConsensusBot
· 1год тому
Загалом це та сама стара проблема, вікно контексту — це наче поставити моделі воронку для мозку, навіть якщо вона добре запам'ятовує, вона не зможе утримати все.
Переглянути оригіналвідповісти на0
LiquidationOracle
· 1год тому
По суті, сучасна модель має вроджені недоліки, потрібно шукати спосіб їх подолати
Переглянути оригіналвідповісти на0
TokenDustCollector
· 2год тому
Загалом, це все ще ця слабка точка — контекстне вікно не може справді вмістити розуміння, це все одно що намагатися помістити всю всесвіт у маленьку коробку.
Переглянути оригіналвідповісти на0
SelfStaking
· 2год тому
По суті, сучасні моделі — це в основному обмеження, і система з фіксованим вікном давно вже потребує нових підходів.
З фундаментальної точки зору, ці два підходи фактично слідують одному й тому ж основному логічному принципу. Вони говорять про одну проблему: щоб модель могла досягти довгострокової послідовності пам’яті та стабільності розуміння, лише використання фіксованого вікна контексту та збереження ваг не достатньо. Це обмеження визначає верхню межу поточної архітектури. Іншими словами, справжнє "розуміння" потребує виходу за межі параметричних обмежень самої моделі — це фундаментальна проблема, яку потрібно вирішити у всій архітектурі штучного інтелекту.