Колишній головний науковець OpenAI, нинішній співзасновник SSI Ілля Сутскевер у своєму останньому інтерв'ю зазначив, що сучасні AI моделі практично непереможні в різних тестах, оцінках і змаганнях, але повсякденне життя більшості людей не зазнало кардинальних змін. Він вважає, що цей розрив між “суперечивими оцінками і звичайним досвідом” виникає з того, що індустрія в останні роки надмірно покладалася на успішну формулу “накопичення обчислювальної потужності, даних та параметрів моделей”. Однак кількість природного тексту, доступного для попереднього навчання, сама по собі обмежена, і цей шлях рано чи пізно зіштовхнеться з перешкодами. Наступний етап розвитку AI перейде в нову фазу, де вже не буде мова про те, у кого більше GPU, а про те, хто зможе знайти нові принципи навчання, зрозуміти узагальнення і наблизити спосіб навчання AI до людського.
Науково-фантастичний сюжет відбувається, але життя майже не змінюється.
Під час відкриття інтерв'ю ведучий описав теперішній розвиток ШІ та атмосферу в районі затоки Сан-Франциско, що цілком нагадує сюжет наукової фантастики. Проте парадоксально, що незважаючи на те, що глобальні інвестиції в ШІ часто перевищують десятки або сотні мільярдів доларів, навіть наближаючись до 1% ВВП окремих країн, повсякденні враження звичайних людей від життя не зазнають кардинальних змін.
Більшість людей лише бачать у новинах, як технологічні гіганти оголошують про нове розширення дата-центрів або витрачають стільки ж бюджету на купівлю GPU, але від вулиці до вулиці очевидні зміни в сфері ШІ все ще досить обмежені.
Сутскевер прийняв це твердження і зазначив, що здатності моделі дійсно вражаючі, але в знайомому людям життєвому середовищі відчуття не буде таким вражаючим, як у лабораторії або в дослідницьких звітах, і цей розрив є нормальним явищем.
Оцінка тестування здібностей надзвичайно висока, але на практиці часто виникають помилки.
Sutskever далі говорить про «двосторонність» моделі. Він зазначає, що ШІ в програмах оцінювання, стандартизованих тестах або різних бенчмарках часто може продемонструвати рівень, що перевищує людський, але як тільки його залучають до реальних потреб, він стикається з абсолютно іншими обставинами. Він навів приклад, що багато розробників просять модель допомогти з виправленням помилок. Модель зазвичай дуже впевнено вказує на проблему та пропонує виправлення, але наступний крок часто вводить нові помилки.
Коли ви знову попросите його виправити другу помилку, він може знову додати перший баг, утворюючи цикл між двома помилками. Сутскевер вважає, що ця суперечність «супергероя в тестах, нестабільного в реальному світі» є одним з найбільш вартих глибокого розуміння явищ у сфері ШІ.
Для тестування навчання, що призводить до відхилення моделі від реального світу
При аналізі причин відставання Сутскевер вказує, що зараз великі компанії, займаючись посиленим навчанням, часто коригують поведінку моделей відповідно до публічних тестових завдань. Адже якщо показати вражаючі результати на тестуванні, можна отримати перевагу на презентаціях, інвестиційних брифінгах та технічних порівняннях. Це також робить моделі надзвичайно потужними в цих тестових сценаріях, але коли стикаються з мінливими реальними умовами, вони не можуть продемонструвати ту ж саму здатність.
Він використовує програмування змагань як аналогію. Якщо учасник тренується 10 000 годин, щоб виграти, він дійсно може досягти вражаючих результатів на змаганнях. Інший, хто тренувався лише 100 годин, але природно має певний спосіб розуміння проблеми, можливо, в довгостроковій кар'єрі зможе більш гнучко реагувати. Модель наразі подібна до першої:
«Високо навчені, надзвичайно сильні у фіксованих завданнях, але нестача людської глибокої здатності до узагальнення.»
Моделі експансії стали популярними, дослідницький простір був суттєво стиснутий.
За словами Сутскевера, 2012–2020 роки можна вважати «золотим періодом досліджень» у сфері ШІ, коли різні галузі активно досліджували різні архітектури та методи, і багато проривів виникло завдяки різноманітним новаторським ідеям. Однак успіх GPT-3 та закону розширення моделей кардинально змінив напрямок. З того часу в усій індустрії поступово склалася спільна думка:
«Збільште модель, додайте більше даних, підвищте обчислювальну потужність, і можливості природно зростуть.»
Цей підхід, що спирається на формули, став основним у інвестиційному ринку та у великих компаніях через низький рівень ризику та передбачуваність результатів. Але через те, що всі використовують однакову стратегію, фактичний простір для досліджень виявився звуженим.
Природних даних обмаль, попереднє навчання врешті-решт натрапить на стіну.
Сутскевер підкреслив, що природних матеріалів в Інтернеті обмежена кількість, і великі мовні моделі покладаються на ці тексти для навчання. Після багатьох років розширення компанії вже близькі до того, щоб «використати всі доступні матеріали». Коли обсяг даних більше не може подвоїтися, покращення продуктивності, яке приносить лише збільшення моделей і Обчислювальної потужності, помітно сповільниться.
Він вважає, що це означає, що ШІ незабаром перейде на наступний етап, коли вже не буде лише прагнути до збільшення розміру моделі, а скоріше переосмислювати, як люди навчаються, як формується узагальнення, чи може модель самостійно коригуватися на основі меншої кількості зразків, а також чи може вона під час навчання мати можливість оцінки на проміжних етапах, а не лише покладатися на остаточний зворотний зв'язок для визначення напрямку поведінки.
Ці проблеми в основному не можуть бути вирішені лише кількістю GPU, а потребують справжніх наукових досліджень.
(Примітка: попереднє навчання (Pre-Training) означає, що модель спочатку читає велику кількість текстів з Інтернету, з яких вчиться мовній структурі та базовим знанням, формуючи основу для подальших можливостей. Основні великі моделі використовують попереднє навчання як перший етап. )
Посилене навчання призводить до вибуху обчислювальної потужності, ефективність виявляється гіршою, ніж уявлялося.
Сутскевер також зазначив, що в останні роки багато компаній у сфері посиленого навчання (RL) використовують масштаби навчання, які навіть перевищують попереднє навчання. Ці довгі послідовності виведення споживають величезну обчислювальну потужність, але кожне виведення приносить обмежене ефективне навчання, що знижує загальну ефективність. Якщо продовжувати покладатися на той самий метод навчання, це лише призведе до витрат більше ресурсів, але важко подолати межі сутності моделі.
Тому він вважає, що індустрія ШІ поступово повертається до стадії дослідження «пошуку нових методів», а акцент більше не на тому, хто має найбільші дата-центри, а на тому, хто може знайти нові принципи навчання.
(Примітка: Поглиблене навчання Reinforcement Learning, що означає, що модель зростає через метод навчання на основі проб і помилок, модель отримує зворотний зв'язок або винагороду після виконання завдання і відповідно коригує свою поведінку.)
Зосередьтеся на розумінні та навчанні, про бізнес-модель поговоримо пізніше.
Сутскевер зазначив, що стратегія SSI полягає в тому, щоб зосередитися на дослідженнях, зокрема на розумінні узагальнення, людських способів навчання та того, як моделі можуть самостійно покращуватися на основі невеликої кількості прикладів. Він вважає, що замість того, щоб поспішати з відповіддю на питання про бізнес-модель, краще зосередитися на знаходженні більш фундаментальної навчальної структури, і як тільки буде зроблено прорив, різні комерційні застосування почнуть з'являтися.
Він оцінює, що в майбутні 5-20 років є можливість створити AI, чия ефективність навчання буде порівнянна з людською. Як тільки машини зможуть швидко засвоювати нові навички, як люди, і в поєднанні з масовим впровадженням, загальні можливості покажуть стрибкоподібне зростання, наближаючись до суперінтелекту.
Різниця між оцінкою та практичною корисністю зникне з появою нових методів навчання.
Сутскевер врешті-решт зазначив, що нинішня революція в ІТ виглядає не такою радикальною, оскільки між можливостями моделей і способами їх використання все ще існує помітна прірва. Коли моделі еволюціонують від здатності проходити іспити до здатності навчатися, самостійно коригуватися, постійно узагальнювати та стабільно зростати, ШІ швидко переформує глобальне життя.
До того часу люди не лише бачитимуть великі інвестиції в новинах, але й зможуть насправді відчути зміни в повсякденному житті.
Ця стаття колишнього науковця OpenAI: обчислювальна потужність досягла межі, індустрії ШІ потрібно повернутися до основ досліджень. Вперше з'явилася на Chain News ABMedia.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Колишні науковці OpenAI: обчислювальна потужність досягла межі, AI-індустрія повинна повернутися до основ досліджень.
Колишній головний науковець OpenAI, нинішній співзасновник SSI Ілля Сутскевер у своєму останньому інтерв'ю зазначив, що сучасні AI моделі практично непереможні в різних тестах, оцінках і змаганнях, але повсякденне життя більшості людей не зазнало кардинальних змін. Він вважає, що цей розрив між “суперечивими оцінками і звичайним досвідом” виникає з того, що індустрія в останні роки надмірно покладалася на успішну формулу “накопичення обчислювальної потужності, даних та параметрів моделей”. Однак кількість природного тексту, доступного для попереднього навчання, сама по собі обмежена, і цей шлях рано чи пізно зіштовхнеться з перешкодами. Наступний етап розвитку AI перейде в нову фазу, де вже не буде мова про те, у кого більше GPU, а про те, хто зможе знайти нові принципи навчання, зрозуміти узагальнення і наблизити спосіб навчання AI до людського.
Науково-фантастичний сюжет відбувається, але життя майже не змінюється.
Під час відкриття інтерв'ю ведучий описав теперішній розвиток ШІ та атмосферу в районі затоки Сан-Франциско, що цілком нагадує сюжет наукової фантастики. Проте парадоксально, що незважаючи на те, що глобальні інвестиції в ШІ часто перевищують десятки або сотні мільярдів доларів, навіть наближаючись до 1% ВВП окремих країн, повсякденні враження звичайних людей від життя не зазнають кардинальних змін.
Більшість людей лише бачать у новинах, як технологічні гіганти оголошують про нове розширення дата-центрів або витрачають стільки ж бюджету на купівлю GPU, але від вулиці до вулиці очевидні зміни в сфері ШІ все ще досить обмежені.
Сутскевер прийняв це твердження і зазначив, що здатності моделі дійсно вражаючі, але в знайомому людям життєвому середовищі відчуття не буде таким вражаючим, як у лабораторії або в дослідницьких звітах, і цей розрив є нормальним явищем.
Оцінка тестування здібностей надзвичайно висока, але на практиці часто виникають помилки.
Sutskever далі говорить про «двосторонність» моделі. Він зазначає, що ШІ в програмах оцінювання, стандартизованих тестах або різних бенчмарках часто може продемонструвати рівень, що перевищує людський, але як тільки його залучають до реальних потреб, він стикається з абсолютно іншими обставинами. Він навів приклад, що багато розробників просять модель допомогти з виправленням помилок. Модель зазвичай дуже впевнено вказує на проблему та пропонує виправлення, але наступний крок часто вводить нові помилки.
Коли ви знову попросите його виправити другу помилку, він може знову додати перший баг, утворюючи цикл між двома помилками. Сутскевер вважає, що ця суперечність «супергероя в тестах, нестабільного в реальному світі» є одним з найбільш вартих глибокого розуміння явищ у сфері ШІ.
Для тестування навчання, що призводить до відхилення моделі від реального світу
При аналізі причин відставання Сутскевер вказує, що зараз великі компанії, займаючись посиленим навчанням, часто коригують поведінку моделей відповідно до публічних тестових завдань. Адже якщо показати вражаючі результати на тестуванні, можна отримати перевагу на презентаціях, інвестиційних брифінгах та технічних порівняннях. Це також робить моделі надзвичайно потужними в цих тестових сценаріях, але коли стикаються з мінливими реальними умовами, вони не можуть продемонструвати ту ж саму здатність.
Він використовує програмування змагань як аналогію. Якщо учасник тренується 10 000 годин, щоб виграти, він дійсно може досягти вражаючих результатів на змаганнях. Інший, хто тренувався лише 100 годин, але природно має певний спосіб розуміння проблеми, можливо, в довгостроковій кар'єрі зможе більш гнучко реагувати. Модель наразі подібна до першої:
«Високо навчені, надзвичайно сильні у фіксованих завданнях, але нестача людської глибокої здатності до узагальнення.»
Моделі експансії стали популярними, дослідницький простір був суттєво стиснутий.
За словами Сутскевера, 2012–2020 роки можна вважати «золотим періодом досліджень» у сфері ШІ, коли різні галузі активно досліджували різні архітектури та методи, і багато проривів виникло завдяки різноманітним новаторським ідеям. Однак успіх GPT-3 та закону розширення моделей кардинально змінив напрямок. З того часу в усій індустрії поступово склалася спільна думка:
«Збільште модель, додайте більше даних, підвищте обчислювальну потужність, і можливості природно зростуть.»
Цей підхід, що спирається на формули, став основним у інвестиційному ринку та у великих компаніях через низький рівень ризику та передбачуваність результатів. Але через те, що всі використовують однакову стратегію, фактичний простір для досліджень виявився звуженим.
Природних даних обмаль, попереднє навчання врешті-решт натрапить на стіну.
Сутскевер підкреслив, що природних матеріалів в Інтернеті обмежена кількість, і великі мовні моделі покладаються на ці тексти для навчання. Після багатьох років розширення компанії вже близькі до того, щоб «використати всі доступні матеріали». Коли обсяг даних більше не може подвоїтися, покращення продуктивності, яке приносить лише збільшення моделей і Обчислювальної потужності, помітно сповільниться.
Він вважає, що це означає, що ШІ незабаром перейде на наступний етап, коли вже не буде лише прагнути до збільшення розміру моделі, а скоріше переосмислювати, як люди навчаються, як формується узагальнення, чи може модель самостійно коригуватися на основі меншої кількості зразків, а також чи може вона під час навчання мати можливість оцінки на проміжних етапах, а не лише покладатися на остаточний зворотний зв'язок для визначення напрямку поведінки.
Ці проблеми в основному не можуть бути вирішені лише кількістю GPU, а потребують справжніх наукових досліджень.
(Примітка: попереднє навчання (Pre-Training) означає, що модель спочатку читає велику кількість текстів з Інтернету, з яких вчиться мовній структурі та базовим знанням, формуючи основу для подальших можливостей. Основні великі моделі використовують попереднє навчання як перший етап. )
Посилене навчання призводить до вибуху обчислювальної потужності, ефективність виявляється гіршою, ніж уявлялося.
Сутскевер також зазначив, що в останні роки багато компаній у сфері посиленого навчання (RL) використовують масштаби навчання, які навіть перевищують попереднє навчання. Ці довгі послідовності виведення споживають величезну обчислювальну потужність, але кожне виведення приносить обмежене ефективне навчання, що знижує загальну ефективність. Якщо продовжувати покладатися на той самий метод навчання, це лише призведе до витрат більше ресурсів, але важко подолати межі сутності моделі.
Тому він вважає, що індустрія ШІ поступово повертається до стадії дослідження «пошуку нових методів», а акцент більше не на тому, хто має найбільші дата-центри, а на тому, хто може знайти нові принципи навчання.
(Примітка: Поглиблене навчання Reinforcement Learning, що означає, що модель зростає через метод навчання на основі проб і помилок, модель отримує зворотний зв'язок або винагороду після виконання завдання і відповідно коригує свою поведінку.)
Зосередьтеся на розумінні та навчанні, про бізнес-модель поговоримо пізніше.
Сутскевер зазначив, що стратегія SSI полягає в тому, щоб зосередитися на дослідженнях, зокрема на розумінні узагальнення, людських способів навчання та того, як моделі можуть самостійно покращуватися на основі невеликої кількості прикладів. Він вважає, що замість того, щоб поспішати з відповіддю на питання про бізнес-модель, краще зосередитися на знаходженні більш фундаментальної навчальної структури, і як тільки буде зроблено прорив, різні комерційні застосування почнуть з'являтися.
Він оцінює, що в майбутні 5-20 років є можливість створити AI, чия ефективність навчання буде порівнянна з людською. Як тільки машини зможуть швидко засвоювати нові навички, як люди, і в поєднанні з масовим впровадженням, загальні можливості покажуть стрибкоподібне зростання, наближаючись до суперінтелекту.
Різниця між оцінкою та практичною корисністю зникне з появою нових методів навчання.
Сутскевер врешті-решт зазначив, що нинішня революція в ІТ виглядає не такою радикальною, оскільки між можливостями моделей і способами їх використання все ще існує помітна прірва. Коли моделі еволюціонують від здатності проходити іспити до здатності навчатися, самостійно коригуватися, постійно узагальнювати та стабільно зростати, ШІ швидко переформує глобальне життя.
До того часу люди не лише бачитимуть великі інвестиції в новинах, але й зможуть насправді відчути зміни в повсякденному житті.
Ця стаття колишнього науковця OpenAI: обчислювальна потужність досягла межі, індустрії ШІ потрібно повернутися до основ досліджень. Вперше з'явилася на Chain News ABMedia.