Девід Сакс каже, що сценарій апокаліпсису, коли ШІ знищує робочі місця, є "перегненим".

YahooFinance

Девід СаксКайла Бартковскі/Getty Images * Штучний загальний інтелект залежить від ідеї, що ШІ може досягти людських рівнів мислення.

  • Глава з питань ІШ та криптовалют у Білому домі Девід Сакс каже, що ми ще не зовсім там.
  • Інвестор сказав, що ШІ все ще потребує людського внеску, щоб надати “значну бізнес-цінність.”

Девід Сакс, царь штучного інтелекту та криптовалют у Білому домі, зриває зліт гіперболі AGI.

Компанії у сфері ШІ змагаються за досягнення AGI, або штучного загального інтелекту, який зазвичай вважається формою ШІ, здатною досягти людського рівня мислення. Подальший розвиток ШІ змусив деяких вірити, що ця технологія призведе до масового знищення робочих місць або навіть до ще гірших наслідків, таких як вимирання людей.

Сакс, технічний інвестор, який підтримував великі компанії, такі як Airbnb, Facebook і Uber, написав у пості в X в суботу, що штучний інтелект не прогресує так швидко, як багато хто передбачав — зокрема, ідея про те, що штучний інтелект буде “самоудосконалюватися” і швидко досягне “богоподібного суперінтелекту”, була перебільшена.

“Це зовсім не заперечує прогрес. Ми спостерігаємо значне покращення якості, зручності та співвідношення ціни та продуктивності серед провідних компаній-виробників. Це справа великого інженерного мистецтва і має бути відзначена,” написав Сакс у своєму пості. “Це просто не матеріал для апокаліптичних заяв. Оппенгеймер залишив будівлю.”

Одним із сценаріїв апокаліпсису, які Сакс відхилив у своєму дописі, є страх, що ШІ призведе до масових втрат робочих місць.

Інвестор сказав, що це ще не призвело до результатів, оскільки ШІ залежить від великої кількості людського внеску для підказок та перевірки.

“Це означає, що апокаліптичні прогнози втрати роботи так само перебільшені, як і сама AGI,” сказав він. “Натомість істина, що ‘ви не втратите свою роботу через ШІ, а через того, хто використовує ШІ краще, ніж ви’, залишається вірною.”

Сакс не є єдиним скептиком щодо AGI.

Співзасновник Google Brain Ендрю Нг сказав на виступі Y Combinator у червні, що “AGI було надмірно розрекламовано” і що “є багато речей, які люди можуть робити, а ШІ – ні.”

Генеральний директор Google Сундар Пічаї сказав у подкасті Лекса Фрідмана, що йому подобається використовувати термін AJI, або “штучний зазубрений інтелект”, щоб описати поточну стадію ШІ — ту, яка є надзвичайно розумною, але все ще може допускати базові помилки.

Сакс не відповів на запит про коментар.

Прочитайте оригінальну статтю на Business Insider

Переглянути коментарі

Переглянути оригінал
Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Немає коментарів