Концепція опорних структур Брунера була не просто інструментальною — він уявляв їх як динамічні контейнери для створення значень. Ці підтримки сприяли виникненню символічних структур, а не функціонували як жорсткі послідовності інструкцій.



Розгляньте, як сучасні мовні моделі підходять до подібних проблем. Коли вони генерують контекстуальні відповіді, вони по суті відновлюють рамки значень. Підхід відображає філософію опорних структур: створення тимчасових конструкцій, що дозволяють глибше когнітивне залучення.

Це не звичайне вилучення даних у традиційному розумінні. Це синтез значень — побудова реляційних контекстів, у яких розуміння виникає природно. Відмінність важлива для того, як ми проектуємо системи розмовного ШІ.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • 5
  • Репост
  • Поділіться
Прокоментувати
0/400
MEVHunterBearishvip
· 7год тому
Ця теорія scaffolding дійсно надихнула на тренування AI... Відчувається, що сучасні LLM саме цим і займаються --- Чекайте, це означає, що GPT також у певному сенсі є "скелелазіння"? Це круто --- Теорія Брунера тут дуже підходить для AI, тому й моделі стають все розумнішими --- Значення — це комплексне, а не просто витяг даних... Ой, ось у чому суть --- Тож наш AI насправді теж "будує скелелазіння"? Це цікава ідея --- Головне — та фраза "тимчасова структура", чи саме так працює сучасна AI-система? --- Нарешті хтось зв’язав ці дві речі, я давно не міг зрозуміти, як вони пов’язані
Переглянути оригіналвідповісти на0
TradFiRefugeevip
· 7год тому
Те речі Брунера... по суті, це не сприймати студентів як машини для заучування, а дозволити їм самостійно будувати значення, так? Зараз великі моделі роблять щось подібне, не просто перекачуючи дані, а створюючи мережі зв’язків, і це дійсно цікаво.
Переглянути оригіналвідповісти на0
OldLeekConfessionvip
· 7год тому
Брунера ця штука насправді говорить про те, що не потрібно нав'язувати знання силоміць, потрібно дати людині самому зрозуміти Зачекайте, це схоже на логіку сучасних великих моделей, так? Тобто AI теж "будує каркас"? Це трохи перебільшено, чи не так? Але якщо так зрозуміти, то це дійсно досить цікаво, здається, що щось уловив Це висловлювання про "комплексний зміст" звучить так, ніби воно намагається виправдати AI? Ха-ха
Переглянути оригіналвідповісти на0
GasWhisperervip
· 7год тому
каркас Брунера як динамічний контейнер... так, саме так я уявляю моделі прогнозування мемпулів, так? тобто ви не просто витягуєте сирі дані транзакцій, а створюєте контекстуальні рамки, які дозволяють патернам виникати органічно. різниця має значення, друже
Переглянути оригіналвідповісти на0
0xOverleveragedvip
· 7год тому
哎呀,这不就是说AI其实也在"搭腳手架"嗎...有點東西啊 --- 布魯納那套東西我咋感覺就是元學習?真沒想過這麼對標 --- 意義綜合vs資料提取,這區分對設計對話系統確實關鍵 --- 等等,那LLM現在做的是不是就已經算某種形式的腳手架了? --- 話說這思路套到web3叙事構建上也成立吧... --- 符號出現而不是僵硬序列,這條才是真核心 --- 嗯,context window就是臨時結構,豁然開朗
Переглянути оригіналвідповісти на0
  • Закріпити