28/08/2025

HRM – L'IA de 27 millions de paramètres qui écrase GPT-4 sur le raisonnement

Par admin

HRM - L'IA de 27 millions de paramètres qui écrase GPT-4 sur le raisonnement

Une startup de Singapour vient de prouver qu’en matière IA, David peut encore battre Goliath car avec seulement
27 millions de paramètres selon leur papier de recherche
, leur modèle HRM (Hierarchical Reasoning Model) pulvérise des géants comme GPT-4 sur des tâches de raisonnement complexe. Alors comment c’est possible ??? Et bien tout simplement en s’inspirant directement du cerveau humain.

L’équipe de Sapient Intelligence a levé 22 millions de dollars en janvier 2025 et vient enfin de libérer
leur code sur GitHub
. Leur approche consiste en deux modules qui bossent ensemble comme les régions de notre cortex. Le premier est un module “lent” pour la planification abstraite, et le second, un module “rapide” pour tout ce qui concerne les calculs détaillés.

.center-shortcode * {
text-align: center !important;
}
.center-shortcode p {
text-align: center !important;
width: 100%;
margin-left: auto;
margin-right: auto;
}
.center-shortcode img {
display: block;
margin: 0 auto;
}
.center-shortcode p em,
.center-shortcode em {
font-style: italic;
text-align: center !important;
display: inline-block;
width: 100%;
}

Et les chiffres de ce qu’ils annoncent donnent le vertige.
Selon VentureBeat
, HRM délivre des performances jusqu’à 100 fois supérieures aux LLM classiques avec seulement 1000 exemples d’entraînement. Pour vous donner une idée, entraîner HRM sur des Sudoku de niveau professionnel prend environ 2 heures de GPU, et pour le
benchmark ARC-AGI
super complexe, entre 50 et 200 heures. Une broutille comparée aux ressources astronomiques des modèles de fondation d’OpenAI, de Google, d’Anthropic et j’en passe.

Mais sur le terrain, ça donne quoi ?

Et bien
HRM cartonne sur l’ARC-AGI Challenge avec 40,3% de réussite selon l’analyse ARC Prize
, alors que des modèles bien plus massifs ramassent. Il résout quasi parfaitement des Sudoku extrêmes et trouve le chemin optimal dans des labyrinthes de 30×30. Tout ça sans pré-entraînement, sans données Chain-of-Thought.

.center-shortcode * {
text-align: center !important;
}
.center-shortcode p {
text-align: center !important;
width: 100%;
margin-left: auto;
margin-right: auto;
}
.center-shortcode img {
display: block;
margin: 0 auto;
}
.center-shortcode p em,
.center-shortcode em {
font-style: italic;
text-align: center !important;
display: inline-block;
width: 100%;
}

La magie de ce modèle opère grâce à ce qu’ils appellent la “convergence hiérarchique”. En gros, le module haut niveau cogite lentement sur la stratégie générale pendant que le module bas niveau calcule à toute vitesse les détails. Exactement comme votre cerveau quand vous résolvez un problème complexe : une partie planifie, l’autre exécute.

Cette approche ouvre des perspectives énormes pour les entreprises mais également dans le médical, où Sapient teste déjà HRM sur des diagnostics de maladies rares où les données sont éparses mais la précision critique. En climatologie, ils atteignent un joli 97% de précision sur les prévisions saisonnières.

L’aspect le plus dingue c’est que contrairement aux mastodontes verrouillés et payants, HRM est complètement open-source. Le code tourne sur votre laptop, et vous pouvez le modifier, l’améliorer.

Alors faut-il vraiment des centaines de milliards de paramètres quand l’intelligence peut émerger de structures plus compactes mais mieux organisées ? HRM suggère qu’on a peut-être fait fausse route en privilégiant la taille brute à l’efficacité architecturale.

Du coup, les géants de la tech vont-ils revoir leur copie pour adopter une approche semblable ? On verra bien !

Un grand merci à Lorenper pour l’info !

Source

Source : korben.info