Только что наткнулся на что-то дикое во время моей сессии тестирования модели ИИ. Не могу сказать точный вопрос, который я использовал, но вот что произошло: задал намеренно хитрый вопрос без правильного ответа различным моделям.
Каждый из них, который я тестировал до сих пор? Все они уверенно выдают что-то, что звучит разумно. Знаете, такой ответ, который выглядит умно, пока вы не осознаете, что они полностью пропустили ловушку.
Но эта последняя флагманская модель, которую я попробовал? Впервые в жизни - она действительно остановилась и сказала: "подождите, у этого вопроса нет действительного ответа." Она не пыталась выкручиваться. Просто признала логическую невозможность.
Честно говоря, впечатлен. Возможно, проведу больше тестов, чтобы увидеть, выдерживает ли это разные типы ловушечных вопросов. Способность распознавать неразрешимые подсказки недооценена - это показывает реальное рассуждение, а не совпадение шаблонов.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
20 Лайков
Награда
20
7
Репост
Поделиться
комментарий
0/400
GasFeeNightmare
· 22ч назад
не вру, это и есть настоящий прогресс, остальное - просто выдумки
Посмотреть ОригиналОтветить0
SigmaValidator
· 22ч назад
Эй, это очень интересно, наконец-то модель осмелилась признать "я не знаю".
Посмотреть ОригиналОтветить0
ProofOfNothing
· 22ч назад
Этот парень действительно что-то открыл, наконец-то есть модель, которая осмеливается сказать "Я не знаю".
Посмотреть ОригиналОтветить0
0xSoulless
· 22ч назад
Ха, наконец-то есть модель, которая смеет сказать "Я не знаю". Это настоящий прогресс.
Посмотреть ОригиналОтветить0
NFTPessimist
· 22ч назад
Это настоящее искусственный интеллект, а не ловушка с жестко закодированными ответами.
Посмотреть ОригиналОтветить0
GasFeeCryer
· 22ч назад
честно говоря, это действительно прогресс, а не ерунда с данными, чтобы обмануть людей
Посмотреть ОригиналОтветить0
CafeMinor
· 22ч назад
Ёлки-палки, наконец-то есть модель, которая осмелилась сказать "Я не знаю", вот это настоящий прогресс!
Только что наткнулся на что-то дикое во время моей сессии тестирования модели ИИ. Не могу сказать точный вопрос, который я использовал, но вот что произошло: задал намеренно хитрый вопрос без правильного ответа различным моделям.
Каждый из них, который я тестировал до сих пор? Все они уверенно выдают что-то, что звучит разумно. Знаете, такой ответ, который выглядит умно, пока вы не осознаете, что они полностью пропустили ловушку.
Но эта последняя флагманская модель, которую я попробовал? Впервые в жизни - она действительно остановилась и сказала: "подождите, у этого вопроса нет действительного ответа." Она не пыталась выкручиваться. Просто признала логическую невозможность.
Честно говоря, впечатлен. Возможно, проведу больше тестов, чтобы увидеть, выдерживает ли это разные типы ловушечных вопросов. Способность распознавать неразрешимые подсказки недооценена - это показывает реальное рассуждение, а не совпадение шаблонов.