Проблема галлюцинаций в моделях ИИ обычно воспринимается как неудача предсказания. Но на самом деле существует и другой тип сбоя — когда человек не предоставляет четкую логическую структуру, и ИИ неправильно интерпретирует структуру рассуждений.



Это касается не только технического уровня, но и недостатков в обучении и когнитивных аспектах. При обработке скрытых логических связей ИИ легко отклоняется в условиях распределенного информационного поля без явных указаний. Другими словами, это
"несовпадение способов обучения" — система, пытаясь заполнить информационные пробелы, вместо этого создает несуществующие связи.

Понимание этого различия очень важно. Оно касается не только оптимизации модели, но и того, как мы проектируем более эффективное взаимодействие человек-машина и способы представления информации.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 4
  • Репост
  • Поделиться
комментарий
0/400
SocialFiQueenvip
· 3ч назад
说白了,AI就是在瞎编故事填空嘛,咋还有人觉得这是什么深度问题 这才是关键啊,不是模型垃圾,是咱们指令给得不清楚 想起那次GPT给我编的数据...真的血压上升,原来它根本不是真的理解,只是在玩接龙游戏 啥"学习方式失配",说人话就是:信息不够明确它就开始瞎猜呗 确实,交互设计得好才是硬道理,光想着堆参数有个毛用
Ответить0
MEVEyevip
· 3ч назад
Проще говоря, AI просто заполняет пробелы, человек должен ясно выразить свою мысль
Посмотреть ОригиналОтветить0
ResearchChadButBrokevip
· 3ч назад
Давно говорили, что ИИ — это просто машина для случайных заполнений Если не понимаешь — придумывай, в конце концов пользователи этого и не заметят Вот в чем настоящая проблема, а не в ошибках алгоритма Человеку нужно научиться "говорить" с ИИ, не стоит надеяться, что он сам станет умным Корень проблемы всё равно в человеке — нельзя давать нечёткие инструкции
Посмотреть ОригиналОтветить0
BlockchainWorkervip
· 3ч назад
哎呀我就说呢,AI自己瞎填空的时候最离谱,完全自己脑补一套逻辑出来。 --- 说白了就是人没教好,AI就跟着瞎学呗。 --- 这角度还行,比起动不动就怪算力的分析深多了。 --- 所以归根结底还是prompt工程的问题吧,咋给指令决定了AI咋瞎搞。 --- 噢我明白了,AI不是真的疯,只是在黑暗里乱挥舞。 --- 这解释了为啥有时候AI莫名其妙能编出个"关联"出来,原来是自己补脑子。 --- 反正现在用起来还是得小心,自动填空的危险系数有点高。 --- 有意思,这样看人机交互的设计模式确实得改改了。
Ответить0
  • Закрепить