Ouvrir le menu principal

MacGeneration

Recherche

Pour Apple, chez les LRM, « On n'pense pas, Monsieur, On n'pense pas »

Pierre Dandumont

lundi 09 juin 2025 à 15:45 • 18

Ailleurs

Apple publie de temps en temps des études sur les LLM — les grands modèles de langage — et la dernière, opportunément publiée un peu avant la WWDC de 2025, est assez critique : selon les chercheurs, les LRM ne pensent pas mais ont une capacité de mémorisation intéressante dans certains cas, ce qui ne devrait pas nécessairement étonner tout le monde mais fait parfaitement illusion.

Le papier s'intéresse spécifiquement au LRM, pour Large Reasoning Models. Ces versions plus évoluées des LLM classiques sont en théorie prévues pour améliorer les capacités de raisonnement des modèles. Les chercheurs d'Apple ont évalué o1 et o3 (OpenAI), DeepSeek-R1, Claude 3.7 Sonnet Thinking et Gemini Thinking. Un des problèmes, selon eux, est que les tests employés habituellement sont biaisés, notamment parce que les données sont parfois présentes dans le corpus qui a servi à l'entraînement. Pour éviter ce biais, ils ont utilisé des casse-têtes logiques en modifiant les règles et la complexité.

Les résultats montrent une bonne efficacité sur une complexité moyenne. Image Apple.

Les résultats montrent d'abord que les LLM classiques trouvent plus rapidement et plus efficacement la réponse sur les problèmes dont la logique est simple. Quand la logique est plus complexe, les LRM prennent l'avantage sur les LLM, et quand les problèmes sont très complexes, aucune des deux technologies n'est capable de proposer une réponse correcte. Une des raisons des performances moins élevées sur les problèmes simples vient d'un phénomène de surréflexion : les LRM ont tendance à évaluer des résultats incorrects avant d'arriver à la solution attendue.

Un des cas intéressants qui montre parfaitement le biais des tests est celui des tours de Hanoï. C'est un casse-tête logique assez courant, que beaucoup de développeurs ont probablement codé pendant leurs études. Vous connaissez peut-être le principe de base : il y a n disques, du plus petit au plus grand, et trois tours. Les disques sont rangés du plus grand (en bas) au plus petit (en haut) et il faut déplacer l'ensemble des disques de la tour de gauche à celle de droite. Les règles sont simples : un disque à la fois, et uniquement en plaçant un disque sur un emplacement vide ou un disque plus grand. Avec ce casse-tête, les LRM proposent une solution parfaite dans pratiquement tous les cas avec 5 disques (ce qui nécessite 31 mouvements) et ne commencent à commettre des erreurs qu'à partir de 10 disques et une centaine de mouvements.

La résolution des tours de Hanoï (avec 4 disques). André Karwath, CC BY-SA 2.5.

Dans le problème du passage de la rivière, la donne est différente. La version exacte du problème est expliquée dans les appendices (la page Wikipedia donne quelques exemples), mais le but est de transporter des personnes d'une rive à une autre avec des contraintes sur les couples possibles, tout en sachant que le bateau doit transporter au moins une personne. C'est un problème largement moins étudié que le précédent, avec de nombreuses variantes, et les LRM échouent dès que le nombre de mouvements nécessaires est de 11.

Selon les chercheurs, les raisons de ces disparités ne viennent pas de la complexité elle-même des casse-têtes, mais bien du fait que les tours de Hanoï sont très étudiées et que de nombreuses solutions se trouvent a priori dans les données d'entraînement des LRM. Ce n'est donc pas un raisonnement à proprement parler qui permet au LRM de résoudre le problème, mais une mémorisation des étapes nécessaires. A contrario, le second problème est moins étudié et moins formalisé, et les capacités de raisonnement bien trop limitées (ou absentes) pour résoudre efficacement le casse-tête.

Soutenez MacGeneration sur Tipeee

MacGeneration a besoin de vous

Vous pouvez nous aider en vous abonnant ou en nous laissant un pourboire

Soutenez MacGeneration sur Tipeee

Test du lampadaire de SwitchBot : un bon éclairage Matter sans se ruiner

10:54

• 20


Tout l'univers Proton (VPN, Mail, Drive...) pour 6,5 € par mois !

10:39

• 0


macOS 26.1 : quand le navigateur de fichiers se met à ramer…

10:00

• 86


Sortie de veille : un nouveau MacBook autour de 700 €, trop beau pour être vrai ?

08:00

• 24


Promo : le Mac mini M4 repasse sous les 600 € 🆕

06:59

• 29


Nvidia : si l'Occident ne réagit pas, la Chine va gagner la course à l’IA selon son patron

07/11/2025 à 22:30

• 84


Un clavier Cherry pour Mac en promotion, à seulement 40 €

07/11/2025 à 21:35

• 10


Mozilla dévoile Kit, la nouvelle mascotte de Firefox 🦊

07/11/2025 à 17:45

• 24


Handy : l’app qui transcrit votre voix en texte partout sur macOS

07/11/2025 à 17:08

• 17


Le Terminal de macOS adopte une touche de Liquid Glass avec Tahoe

07/11/2025 à 14:51

• 17


Écrans externes : de bonnes affaires à saisir chez BenQ, Asus et LG

07/11/2025 à 12:33

• 7


Tesla aimerait produire ses puces IA dans une Terrafab, en partenariat avec Intel

07/11/2025 à 12:05

• 26


Proton VPN active le split tunneling sur Mac

07/11/2025 à 10:28

• 13


Swift Student Challenge : Apple donne rendez-vous aux jeunes développeurs en février

07/11/2025 à 09:36

• 1


IKEA officialise l’arrivée de sa nouvelle gamme de produits connectés via Matter et Thread

07/11/2025 à 09:35

• 66


Merci Patron ! Tesla adoube Musk avec un bonus à 1 000 milliards de dollars

07/11/2025 à 07:30

• 157