
Par Maxime Jumelle
CTO & Co-Founder
Publié le 8 déc. 2025
Catégorie IA Générative
Le merging de LLM (ou fusion de modèles) est une technique qui suscite un intérêt croissant dans la communauté de l'IA générative. Plutôt que d'entraîner un nouveau modèle depuis zéro ou de faire du fine-tuning coûteux, cette approche consiste à combiner plusieurs modèles existants pour en créer un nouveau qui hérite des forces de chacun.
Cette méthode est particulièrement attractive car elle permet d'obtenir des modèles performants sur plusieurs tâches sans nécessiter de données d'entraînement supplémentaires ni de ressources computationnelles importantes. En quelques minutes, il devient possible de fusionner deux LLM spécialisés pour créer un modèle polyvalent.
Dans cet article, nous allons explorer le fonctionnement du merging de LLM, comprendre les différentes techniques disponibles, et analyser dans quels cas cette approche s'avère pertinente.
Le merging de LLM consiste à fusionner les poids de plusieurs modèles pour créer un nouveau modèle unique. Concrètement, au lieu de combiner les sorties de différents modèles à l'inférence (comme dans un système d'ensemble), on opère directement sur leurs paramètres internes pour produire un seul modèle consolidé.
Cette technique repose sur une observation importante : les modèles qui partagent une architecture identique et qui ont été entraînés à partir d'un même modèle de base (comme LLaMA ou Mistral) possèdent des espaces de poids relativement similaires. Cela signifie que leurs paramètres peuvent être combinés de manière cohérente sans détruire les connaissances acquises.
Le merging est particulièrement utilisé dans les scénarios suivants :
À découvrir : notre formation LLM Engineering
Un point crucial à retenir est que le merging ne fonctionne qu'entre des modèles partageant la même architecture. Il est impossible de fusionner un modèle Mistral avec un modèle GPT, car leurs structures internes sont fondamentalement différentes.
Plusieurs méthodes ont été développées pour fusionner efficacement des modèles de langage. Chacune présente des caractéristiques spécifiques et s'adapte à des cas d'usage différents.
La méthode SLERP est l'une des techniques les plus simples et les plus utilisées pour le merging de LLM. Elle effectue une interpolation sphérique entre les poids de deux modèles, permettant une transition progressive de l'un vers l'autre.

Contrairement à une interpolation linéaire classique qui pourrait réduire la magnitude des vecteurs de poids, SLERP préserve la norme des vecteurs en suivant une trajectoire sur une sphère. Cette propriété est essentielle car elle maintient les propriétés géométriques des espaces de représentation appris par les modèles.
La formule de SLERP est la suivante :
$$\text{SLERP}(W_1, W_2, t) = \frac{\sin((1-t)\theta)}{\sin(\theta)} W_1 + \frac{\sin(t\theta)}{\sin(\theta)} W_2$$
où W_1 et W_2 sont les poids des deux modèles, $t$ est le facteur d'interpolation (entre 0 et 1), et theta est l'angle entre les deux vecteurs de poids.
SLERP est particulièrement efficace lorsque l'on souhaite créer un modèle équilibré entre deux spécialisations. En ajustant le paramètre $t$, on peut contrôler précisément l'influence de chaque modèle source sur le résultat final.
La méthode Task Arithmetic adopte une approche différente en considérant les modifications apportées par le fine-tuning comme des "vecteurs de tâche" (task vectors). L'idée centrale est que la différence entre un modèle fine-tuné et son modèle de base encode la connaissance spécifique acquise lors de l'entraînement.
Le processus se déroule en plusieurs étapes :
Cette approche permet de fusionner plus de deux modèles facilement et offre une grande flexibilité dans le contrôle de l'influence de chaque spécialisation. Elle est particulièrement adaptée lorsque l'on dispose de plusieurs fine-tunings issus d'un même modèle de base.
La méthode TIES représente une évolution sophistiquée des techniques de merging, conçue pour résoudre les problèmes d'interférence entre les paramètres de différents modèles.
À lire : découvrez notre formation LLM Engineering
TIES repose sur trois étapes clés :

Cette approche est particulièrement efficace pour éviter les conflits entre modèles qui ont appris des comportements contradictoires. Elle produit généralement des résultats plus stables que les méthodes plus simples, notamment lorsque l'on fusionne plusieurs modèles simultanément.
La librairie mergekit est devenue l'outil de référence pour effectuer du merging de LLM en pratique. Elle supporte toutes les techniques mentionnées et s'intègre facilement dans un workflow de développement.
Voici un exemple de configuration pour fusionner deux modèles avec la méthode SLERP :
slices: - sources: - model: mistralai/Mistral-7B-Instruct-v0.2 layer_range: [0, 32] - model: codellama/CodeLlama-7b-Instruct-hf layer_range: [0, 32] merge_method: slerp base_model: mistralai/Mistral-7B-Instruct-v0.2 parameters: t: - filter: self_attn value: [0, 0.5, 0.3, 0.7, 1] - filter: mlp value: [1, 0.5, 0.7, 0.3, 0] - value: 0.5 dtype: bfloat16
Cette configuration permet de contrôler finement l'interpolation pour différentes parties du modèle (couches d'attention, MLP, etc.), offrant ainsi une granularité importante dans le processus de fusion.
L'exécution se fait ensuite simplement en ligne de commande :
mergekit-yaml config.yaml ./merged_model --cuda
Le merging de LLM présente plusieurs avantages significatifs qui expliquent sa popularité croissante :
Cependant, cette technique comporte également des limites importantes à considérer :
Le merging de LLM représente une approche pragmatique et économique pour créer des modèles personnalisés. En combinant intelligemment des modèles existants, il devient possible d'obtenir des résultats satisfaisants sans investir dans des entraînements coûteux.
Les différentes techniques disponibles (SLERP, Task Arithmetic, TIES) offrent une palette d'outils adaptés à différents scénarios. Le choix de la méthode dépendra principalement du nombre de modèles à fusionner et de la nature des compétences que l'on souhaite combiner.
Néanmoins, il est important de garder à l'esprit que le merging n'est pas une solution miracle. Une évaluation rigoureuse du modèle fusionné reste indispensable avant tout déploiement en production, car les performances ne sont pas toujours prévisibles. Pour des besoins très spécifiques ou des niveaux de performance élevés, le fine-tuning traditionnel ou l'entraînement complet restent souvent nécessaires.
Vous souhaitez vous former à l'IA Générative ?
Articles similaires

18 juin 2025
GitHub Copilot est un assistant au code qui est rapidement devenu un incontournable pour tous les développeurs qui veulent utiliser l'IA au quotidien. Depuis son lancement, l'outil a connu de nombreuses mises à jour en intégrant de nouvelles fonctionnalités, en proposant les derniers modèles disponibles et en créant toujours plus d'intégration dans l'éditeur de code.
Maxime Jumelle
CTO & Co-Founder
Lire l'article

4 mars 2025
Pour garantir l'efficacité d’un système RAG, , il est primordial de disposer de méthodes d’évaluation robustes et adaptées. Ces évaluations permettent non seulement d’identifier les faiblesses des différent composants du système (notamment du retriever et du générateur), mais aussi d’optimiser ses performances globales.
Maxime Jumelle
CTO & Co-Founder
Lire l'article

19 févr. 2025
Comme pour la plupart des outils, les systèmes RAG sont faciles à utiliser, mais difficiles à maîtriser. La réalité est que le RAG ne se limite pas à insérer des documents dans une base de données vectorielle et à y ajouter un modèle de langage. Cela peut fonctionner, mais ce n’est pas toujours suffisant pour garantir des résultats fiables et cohérents.
Maxime Jumelle
CTO & Co-Founder
Lire l'article
60 rue François 1er
75008 Paris
Blent est une plateforme 100% en ligne pour se former aux métiers Tech & Data.
Organisme de formation n°11755985075.

Data Engineering
MLOps
Cloud & DevOps
À propos
Gestion des cookies
© 2025 Blent.ai | Tous droits réservés