Les modèles dits « de raisonnement » s’effondrent quand il faut raisonner sérieusement …

Les modèles dits « de raisonnement » s’effondrent quand il faut raisonner sérieusement ...

DeepSeek-R1, les modèles o1 et o3 d’OpenAI, Claude 3.7 Sonnet Thinking ou encore Gemini Thinking. Ces nouveaux modèles censés avoir les capacités de « raisonner » en donnent simplement « l’illusion », selon des chercheurs d’Apple qui leur ont fait passer des tests simples comme celui des tours de Hanoï.
Cliquez ici pour lire l’article