Les chercheurs d'Apple : Les modèles d'IA sont encore loin de la capacité de raisonnement au niveau AGI

TapChiBitcoin
A4,26%
AGI1,95%

La course au développement de l’intelligence artificielle générale (AGI) est encore longue, selon des chercheurs d’Apple, qui estiment que les modèles d’IA de pointe comme ChatGPT et Claude rencontrent encore des difficultés en matière de raisonnement. Bien qu’il existe des modèles de raisonnement avancés (LRMs), leurs capacités et limitations ne sont pas encore bien comprises. Les évaluations actuelles se concentrent principalement sur la précision des réponses finales sans donner d’aperçu sur les capacités de raisonnement.

Des recherches montrent que les LRM ne généralisent pas efficacement les arguments et rencontrent souvent un effondrement de la précision lorsque la complexité augmente. Les chercheurs concluent que ces modèles imitent simplement les arguments sans réellement les comprendre, ce qui ne répond pas aux exigences de l’AGI. L’AGI reste un objectif lointain, bien que certains leaders de l’industrie croient qu’elle pourrait être atteinte dans les prochaines années.

Les modèles d'IA sont encore loin de la capacité de raisonnement au niveau AGI

Voir l'original
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire