Par Maxime Jumelle
CTO & Co-Founder
Publié le 13 févr. 2024
Catégorie IA Générative
Avec l'explosion de l'IA Générative appliquée à la génération de texte ces dernières années, de nombreuses entreprises ont souhaité pouvoir déployer en interne leur propres LLM. Elles disposent ainsi de deux possibilités : utiliser directement des modèles disponibles en version SaaS comme ChatGPT ou Cohere, ou déployer dans leur propre SI un LLM open source adaptés à leurs propres besoins.
Pour des raisons de confidentialité de données, notamment parce que la plupart des applications de LLM SaaS sont déployées par des entreprises américaines, les entreprises européennes se tournent alors majoritairement vers des solutions open source. Mais il existe de nombreux modèles open source, avec chacun leurs avantages et leurs inconvénients, qu'il convient d'énumérer et d'avoir en tête pour procéder à un choix optimal par rapport à ses propres besoins.
Dans cet article, nous allons énumérer les principaux critères de comparaison qui permettent de sélectionner le LLM open source le plus adapté pour son cas d'usage, et présenter des exemples de leaderboards qui permettent de comparer facilement les modèles entre-eux.
Afin de pouvoir comparer les modèles entre-eux dans l'océan de possibilités qui s'offre à nous, il convient de séparer le processus de sélection en plusieurs étapes.
Avant même de rentrer dans les détails techniques de performances, il est important d'identifier le principal cas d'usage sur lequel le modèle sera amené à traiter. En effet, certains modèles peuvent être plus adaptés pour de la classification de texte ou de résumé, alors que d'autres seront au contraire plus spécialisée dans l'extraction et la recherche d'informations.
À lire : découvrez notre formation IA Générative
Le second point qui va évidemment avoir un impact concerne les performances du modèle, autrement dit, sa capacité à proposer des réponses adaptées à chaque demande.
La plupart de ces performances sont calculées via des métriques connues spécifiques aux LLM. Chacune de ces métriques va mesurer la qualité d'un LLM sur des tâches précises : il est donc souvent d'usage de ne pas calculer une seule métrique, mais d'en calculer plusieurs et d'effectuer des agrégations pour déterminer le meilleur LLM si l'on souhaite obtenir un modèle plutôt général.
On peut distinguer deux critères différents pour mesurer les performances.
Pour les entreprises, il s'agira souvent de choisir un mélange adapté entre performance sur la base de critères quantitatifs, mais aussi à partir d'une interaction avec des décisions humaines pour vérifier la cohérence des réponses.
En effet, contrairement à ce que l'on pourrait penser, une entreprise n'a pas forcément besoin du modèle le plus performant : en effet, tout va dépendre de la tâche que l'on souhaite réaliser. Si l'entreprise cherche surtout un LLM capable d'effectuer de l'extraction et de la recherche d'information, elle n'aura pas forcément besoin d'un modèle aussi performance que GPT-4 dans la formulation des réponses.
Le troisième qui peut avoir un impact considérable concerne la taille du modèle ainsi que sa consommation en ressources, c'est-à-dire en puissance de calcul (mémoire et GPU) nécessaire pour exécuter le modèle.
En effet, la plupart des modèles généralistes font entre 7 milliards de paramètres pour les plus petits, jusqu'à une centaine de milliards de paramètres pour les plus gros. Or, un modèle d'une centaine de milliards de paramètres peut nécessiter jusqu'à 50 Go de mémoire GPU (soit 3 à 4 GPU sur une même machine), avec un coût d'exécution allant jusqu'à $8 de l'heure dans les Cloud publics.
Si une entreprise souhaite internaliser l'exécution de LLM dans son propre SI, elle devra alors disposer de ses propres GPUs pour effectuer des inférences. Pour cela, elle peut disposer de plusieurs mécanismes pouvant aider à réduire l'impact en termes de ressources.
Enfin, en dernier point, les entreprises peuvent également être intéressées par les capacités des modèles, soit ce qu'il permet de faire en dehors de simplement fournir une réponse. En effet, un LLM peut avoir plusieurs capacités plus ou moins pertinentes en fonction des cas d'usage.
À découvrir : notre formation IA Générative
Afin d'aider les entreprises à comparer facilement tous les modèles entre-eux, plusieurs plateformes en ligne existent afin de fournir des catalogues ou explorateurs de LLM open source et propriétaires.
Bien entendu, les entreprises peuvent elle-mêmes construire leurs propres leaderboards, mais cela nécessite du temps pour pouvoir évaluer tous les modèles candidats. Ces leaderboards permettent ainsi de faire économiser beaucoup de temps et d'argent aux entreprises.
Avec un nombre grandissant de modèles open source, le choix judicieux d'un LLM n'est pas toujours facile. Il convient ainsi de suivre plusieurs étapes pour sélectionner le modèle le plus adapté à chaque situation.
Le point le plus important consiste à identifier au mieux le besoin et cadrer le cas d'usage qui découlera de l'utilisation du modèle. En effet, cela permettra d'éliminer une grande partie des LLM candidats qui ne seront tout simplement pas adaptés à la situation.
Par la suite, des critères de performances, de ressources de calcul à disposition ainsi que de capacités du modèle pourront être analysés pour déterminer le LLM qui sera retenu.
Vous souhaitez vous former à l'IA Générative ?
Articles similaires
2 févr. 2024
Un des plus gros atouts des LLM concerne indéniablement leur grande connaissance sur de nombreux sujets, ainsi que leur forte capacité de généralisation. Pour de nombreuses entreprises, une des applications les plus importantes concerne la documentation interne.
Maxime Jumelle
CTO & Co-Founder
Lire l'article
30 janv. 2024
Le prompting est une discipline qui a vu le jour avec l'explosion des LLM. En effet, il y a de nombreuses manières de poser des questions à un modèle, et puisqu'ils sont aujourd'hui très généralistes, il est important d'être précis dans ses propositions.
Maxime Jumelle
CTO & Co-Founder
Lire l'article
19 janv. 2024
Avec les développements récents sur les LLM, et plus particulièrement sur les derniers modèles proposés en open source ou propriétaires, de plus en plus d'entreprises ont désormais la capacité de pouvoir les intégrer dans leurs propres projets.
Maxime Jumelle
CTO & Co-Founder
Lire l'article
60 rue François 1er
75008 Paris
Blent est une plateforme 100% en ligne pour se former aux métiers Tech & Data.
Organisme de formation n°11755985075.
Data Engineering
IA Générative
MLOps
Cloud & DevOps
À propos
Gestion des cookies
© 2025 Blent.ai | Tous droits réservés