Це технологічне рішення, таке як скелетонінг, хоча й має великі надії, але чесно кажучи, воно зовсім не вирішує фундаментальну проблему AI-галюцинацій. Подивіться, що зараз роблять великі моделі — генерують неправдиву інформацію, вигадують дані, безсистемно створюють контент, — ці проблеми виникають один за одним. Чи корисні рамкові обмеження? Вони мають певний ефект, але далеко не достатньо. Якщо не покращити фундаментальні механізми навчання моделей і систему перевірки знань, то ці тимчасові заходи можуть лише частково зменшити зовнішні симптоми. Напрям розвитку сучасних AI-технологій все ще потребує глибших проривів, адже прості інженерні оптимізації вже досягли свого межі.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
13 лайків
Нагородити
13
4
Репост
Поділіться
Прокоментувати
0/400
MissedAirdropAgain
· 4год тому
Постійні ремонти ніколи не принесуть справжніх навичок, Scaffolding — це просто плацебо
Переглянути оригіналвідповісти на0
ApeWithNoChain
· 4год тому
Кажучи просто, ця система scaffolding — це ніби наклеювати пластир на протікаючу відро
Обмеження рамки можуть протистояти галюцинаціям? Надто багато думаєш, друже
Насправді проблема саме у моделі, нічого не змінити, нічого не виправити
Переглянути оригіналвідповісти на0
Degen4Breakfast
· 4год тому
Глибоке навчання — це просто велика обманка, побудувати каркас і змінити параметри — і можна лікувати галюцинації? Е-е-е
Переглянути оригіналвідповісти на0
DaoTherapy
· 4год тому
Кажучи просто, scaffolding — це просто патчі, вони зовсім не лікують корінь проблеми.
Знову згадую тих друзів, яких обманули з підробленими даними, справді не можу більше триматися.
Це стає все більш очевидним, оптимізація проекту давно досягла свого максимуму, потрібно змінювати з низу.
Це технологічне рішення, таке як скелетонінг, хоча й має великі надії, але чесно кажучи, воно зовсім не вирішує фундаментальну проблему AI-галюцинацій. Подивіться, що зараз роблять великі моделі — генерують неправдиву інформацію, вигадують дані, безсистемно створюють контент, — ці проблеми виникають один за одним. Чи корисні рамкові обмеження? Вони мають певний ефект, але далеко не достатньо. Якщо не покращити фундаментальні механізми навчання моделей і систему перевірки знань, то ці тимчасові заходи можуть лише частково зменшити зовнішні симптоми. Напрям розвитку сучасних AI-технологій все ще потребує глибших проривів, адже прості інженерні оптимізації вже досягли свого межі.