Проблема галюцинацій моделей штучного інтелекту зазвичай сприймається як провал прогнозування. Але насправді існує й інший режим несправності — коли людина не надає чіткої логічної рамки, AI неправильно інтерпретує структуру логіки.



Це не лише технічна проблема, а й питання дефектів у навчанні та когнітивних процесах. При обробці прихованих логічних зв’язків AI легко відхиляється у розподіленому інформаційному полі без явного керівництва. Іншими словами, це своєрідна
"співвідношення" у способі навчання — система, намагаючись заповнити прогалини у інформації, навпаки створює неіснуючі зв’язки.

Розуміння цієї різниці дуже важливе. Це стосується не лише оптимізації моделей, а й того, як ми проектуємо кращу взаємодію людини з машиною та способи подання інформації.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • 4
  • Репост
  • Поділіться
Прокоментувати
0/400
SocialFiQueenvip
· 15год тому
Кажучи просто, AI — це просто вигадування історій і заповнення пропусків, як таке ще може бути, що хтось вважає це глибокою проблемою? Саме це і є ключовим, не модель погана, а наші інструкції даємо неясні. Згадую той раз, коли GPT мені згенерував дані... справді підвищився тиск, виявляється, він зовсім не розуміє, а просто грає у гру "продовжити". Що "невідповідність способу навчання", по-простому — якщо інформація не ясна, він починає гадати. Дійсно, гарний дизайн взаємодії — це головне, а просто нагромаджувати параметри — це безглуздо.
Переглянути оригіналвідповісти на0
MEVEyevip
· 15год тому
По суті, це штучний інтелект просто заповнює прогалини, людство повинно чітко висловлювати свої думки
Переглянути оригіналвідповісти на0
ResearchChadButBrokevip
· 15год тому
Вже казали, що ШІ — це просто машина для випадкового заповнення порожнин Якщо не розумієш — придумуй сам, адже користувачі й так не помітять Ось справжня проблема, а не якась помилка алгоритму Людям потрібно навчитися "спілкуватися" з ШІ, не варто чекати, що він сам по собі буде розумним Говорячи просто, це знову людська провина — не дає чітких інструкцій
Переглянути оригіналвідповісти на0
BlockchainWorkervip
· 15год тому
哎呀我就說呢,AI自己瞎填空的時候最離譜,完全自己腦補一套邏輯出來。 --- 說白了就是人沒教好,AI就跟著瞎學呗。 --- 這角度還行,比起動不動就怪算力的分析深多了。 --- 所以歸根結底還是prompt工程的問題吧,咋給指令決定了AI咋瞎搞。 --- 噢我明白了,AI不是真的瘋,只是在黑暗裡亂揮舞。 --- 這解釋了為啥有時候AI莫名其妙能編出個"關聯"出來,原來是自己補腦子。 --- 反正現在用起來還是得小心,自動填空的危險系數有點高。 --- 有意思,這樣看人機交互的設計模式確實得改改了。
Переглянути оригіналвідповісти на0
  • Закріпити