Acabei de me deparar com algo incrível durante a minha sessão de teste do modelo de IA. Não posso revelar a pergunta exata que usei, mas aqui está o que aconteceu: lancei uma pergunta deliberadamente complicada sem resposta correta a vários modelos.
Todos os que testei até agora? Todos eles spitam confiantemente algo que soa razoável. Você sabe, aquele tipo de resposta que parece inteligente até perceber que eles perderam completamente a armadilha.
Mas este último modelo topo de gama que experimentei? Primeira vez que realmente parou e disse "espera, esta questão não tem uma resposta válida." Não tentou enrolar. Apenas reconheceu a impossibilidade lógica.
Honestamente impressionado. Pode que faça mais testes para ver se isso se mantém em diferentes tipos de perguntas capciosas. A capacidade de reconhecer solicitações sem resposta é subestimada - mostra raciocínio real em vez de correspondência de padrões.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
20 gostos
Recompensa
20
7
Republicar
Partilhar
Comentar
0/400
GasFeeNightmare
· 11-25 17:57
não vou mentir, isso é realmente um progresso, os outros estão apenas inventando histórias
Ver originalResponder0
SigmaValidator
· 11-25 17:54
Eh, isso é muito interessante, finalmente um modelo que se atreve a admitir "eu não sei".
Ver originalResponder0
ProofOfNothing
· 11-25 17:49
Este gajo que mediu as coisas tem algo interessante, finalmente há um modelo que se atreve a dizer "não sei".
Ver originalResponder0
0xSoulless
· 11-25 17:38
Ah, finalmente há um modelo que se atreve a dizer "eu não sei", isso sim é um verdadeiro progresso.
Ver originalResponder0
NFTPessimist
· 11-25 17:30
Isto é que é inteligência verdadeira, não é aquele conjunto de respostas programadas.
Ver originalResponder0
GasFeeCryer
· 11-25 17:29
não vou mentir, este é o verdadeiro progresso, não é inventar dados para enganar as pessoas
Ver originalResponder0
CafeMinor
· 11-25 17:27
Caramba, finalmente há um modelo que se atreve a dizer "não sei". Isso sim é um verdadeiro progresso!
Acabei de me deparar com algo incrível durante a minha sessão de teste do modelo de IA. Não posso revelar a pergunta exata que usei, mas aqui está o que aconteceu: lancei uma pergunta deliberadamente complicada sem resposta correta a vários modelos.
Todos os que testei até agora? Todos eles spitam confiantemente algo que soa razoável. Você sabe, aquele tipo de resposta que parece inteligente até perceber que eles perderam completamente a armadilha.
Mas este último modelo topo de gama que experimentei? Primeira vez que realmente parou e disse "espera, esta questão não tem uma resposta válida." Não tentou enrolar. Apenas reconheceu a impossibilidade lógica.
Honestamente impressionado. Pode que faça mais testes para ver se isso se mantém em diferentes tipos de perguntas capciosas. A capacidade de reconhecer solicitações sem resposta é subestimada - mostra raciocínio real em vez de correspondência de padrões.