Концепція опорних структур Брунера була не просто інструментальною — він уявляв їх як динамічні контейнери для створення значень. Ці підтримки сприяли виникненню символічних структур, а не функціонували як жорсткі послідовності інструкцій.
Розгляньте, як сучасні мовні моделі підходять до подібних проблем. Коли вони генерують контекстуальні відповіді, вони по суті відновлюють рамки значень. Підхід відображає філософію опорних структур: створення тимчасових конструкцій, що дозволяють глибше когнітивне залучення.
Це не звичайне вилучення даних у традиційному розумінні. Це синтез значень — побудова реляційних контекстів, у яких розуміння виникає природно. Відмінність важлива для того, як ми проектуємо системи розмовного ШІ.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
9 лайків
Нагородити
9
5
Репост
Поділіться
Прокоментувати
0/400
MEVHunterBearish
· 7год тому
Ця теорія scaffolding дійсно надихнула на тренування AI... Відчувається, що сучасні LLM саме цим і займаються
---
Чекайте, це означає, що GPT також у певному сенсі є "скелелазіння"? Це круто
---
Теорія Брунера тут дуже підходить для AI, тому й моделі стають все розумнішими
---
Значення — це комплексне, а не просто витяг даних... Ой, ось у чому суть
---
Тож наш AI насправді теж "будує скелелазіння"? Це цікава ідея
---
Головне — та фраза "тимчасова структура", чи саме так працює сучасна AI-система?
---
Нарешті хтось зв’язав ці дві речі, я давно не міг зрозуміти, як вони пов’язані
Переглянути оригіналвідповісти на0
TradFiRefugee
· 7год тому
Те речі Брунера... по суті, це не сприймати студентів як машини для заучування, а дозволити їм самостійно будувати значення, так? Зараз великі моделі роблять щось подібне, не просто перекачуючи дані, а створюючи мережі зв’язків, і це дійсно цікаво.
Переглянути оригіналвідповісти на0
OldLeekConfession
· 7год тому
Брунера ця штука насправді говорить про те, що не потрібно нав'язувати знання силоміць, потрібно дати людині самому зрозуміти
Зачекайте, це схоже на логіку сучасних великих моделей, так?
Тобто AI теж "будує каркас"? Це трохи перебільшено, чи не так?
Але якщо так зрозуміти, то це дійсно досить цікаво, здається, що щось уловив
Це висловлювання про "комплексний зміст" звучить так, ніби воно намагається виправдати AI? Ха-ха
Переглянути оригіналвідповісти на0
GasWhisperer
· 7год тому
каркас Брунера як динамічний контейнер... так, саме так я уявляю моделі прогнозування мемпулів, так? тобто ви не просто витягуєте сирі дані транзакцій, а створюєте контекстуальні рамки, які дозволяють патернам виникати органічно. різниця має значення, друже
Концепція опорних структур Брунера була не просто інструментальною — він уявляв їх як динамічні контейнери для створення значень. Ці підтримки сприяли виникненню символічних структур, а не функціонували як жорсткі послідовності інструкцій.
Розгляньте, як сучасні мовні моделі підходять до подібних проблем. Коли вони генерують контекстуальні відповіді, вони по суті відновлюють рамки значень. Підхід відображає філософію опорних структур: створення тимчасових конструкцій, що дозволяють глибше когнітивне залучення.
Це не звичайне вилучення даних у традиційному розумінні. Це синтез значень — побудова реляційних контекстів, у яких розуміння виникає природно. Відмінність важлива для того, як ми проектуємо системи розмовного ШІ.