Parce que chez Blent, on aime partager nos connaissances, les articles vous permettront de découvrir des sujets pointus et avant-gardistes dans ce domaine qui évolue si rapidement.

19 janv. 2024
Avec les développements récents sur les LLM, et plus particulièrement sur les derniers modèles proposés en open source ou propriétaires, de plus en plus d'entreprises ont désormais la capacité de pouvoir les intégrer dans leurs propres projets.
Maxime Jumelle
CTO & Co-Founder
Lire l'article

2 janv. 2024
Depuis longtemps, les chatbots ont toujours été des projets difficiles à développer, car ils nécessitent d'avoir accès à des informations en temps réel contenues dans des documents ou des bases de données. Aujourd'hui, avec les LLM puissants disponibles pour de nombreux projets, il peut être pertinent d'adapter les chatbots pour qu'ils apportent des réponses beaucoup plus précises et détaillées aux utilisateurs.
Maxime Jumelle
CTO & Co-Founder
Lire l'article

29 nov. 2023
Au cours des dernières années, la méthode de gestion des infrastructures et des applications informatiques appelée GitOps a pris d'assaut le monde de la technologie. Cette approche offre une méthodologie révolutionnaire pour la gestion de l'infrastructure et du déploiement des applications en combinant les principes fondamentaux de Git.
Maxime Jumelle
CTO & Co-Founder
Lire l'article

9 janv. 2026
Harbor est un registre d'images de conteneurs open source qui permet de stocker, signer et analyser des images Docker et d'autres artefacts compatibles OCI (Open Container Initiative). Créé initialement par VMware en 2016, le projet a rejoint la CNCF en 2018 et a atteint le statut de projet graduated en 2020, attestant de sa maturité et de son adoption massive.
Maxime Jumelle
CTO & Co-Founder
Lire l'article

8 janv. 2026
Véritable pilier des infrastructures à haute disponibilité, HAProxy (High Availability Proxy) est un logiciel open source capable de distribuer le trafic réseau entre plusieurs serveurs de manière intelligente. Utilisé par des géants comme GitHub, Reddit ou encore Stack Overflow, cet outil permet d'assurer la continuité de service même en cas de panne d'un ou plusieurs serveurs, tout en optimisant les performances globales de l'infrastructure.
Maxime Jumelle
CTO & Co-Founder
Lire l'article

5 janv. 2026
Le fine-tuning de LLM est devenu une étape incontournable pour adapter les modèles de langage à des cas d'usage spécifiques. Cependant, cette opération reste notoirement gourmande en ressources : entraîner un modèle de 7 milliards de paramètres peut nécessiter plusieurs dizaines de gigaoctets de VRAM, rendant l'exercice inaccessible pour de nombreuses équipes ne disposant pas de clusters GPU coûteux.
Maxime Jumelle
CTO & Co-Founder
Lire l'article

2 janv. 2026
Développé par NVIDIA, CUDA (Compute Unified Device Architecture) est le framework qui a permis de transformer les cartes graphiques en véritables accélérateurs de calcul scientifique. Sans cette technologie, l'essor fulgurant de l'IA générative que nous connaissons aujourd'hui n'aurait tout simplement pas été possible. Que vous utilisiez PyTorch, TensorFlow, ou un serveur d'inférence comme vLLM, CUDA constitue la couche fondamentale qui fait le lien entre votre code et la puissance brute du GPU.
Maxime Jumelle
CTO & Co-Founder
Lire l'article

30 déc. 2025
vLLM s'est imposé comme la solution de référence pour servir des LLM en production. Développé initialement par des chercheurs de l'université de Berkeley, ce serveur d'inférence combine des optimisations algorithmiques avancées avec une interface compatible OpenAI, permettant de déployer n'importe quel modèle open weights comme s'il s'agissait de l'API GPT.
Maxime Jumelle
CTO & Co-Founder
Lire l'article

23 déc. 2025
L'émergence de l'Agentic AI a transformé notre façon de concevoir les systèmes d'intelligence artificielle. Un agent IA autonome, capable de raisonner, planifier et exécuter des actions, représente déjà une avancée majeure par rapport aux LLM classiques. Cependant, face à des missions complexes nécessitant des compétences variées ou un volume de travail conséquent, un agent unique atteint rapidement ses limites.
Maxime Jumelle
CTO & Co-Founder
Lire l'article

18 déc. 2025
L'évaluation d'un agent IA s'articule autour de plusieurs familles de métriques qui, ensemble, fournissent une vision complète de sa performance opérationnelle.
Maxime Jumelle
CTO & Co-Founder
Lire l'article

15 déc. 2025
L'Agentic RAG introduit une rupture conceptuelle en transformant le système RAG en un agent IA autonome capable de raisonner sur sa stratégie de recherche et d'adapter son comportement en fonction des résultats obtenus. Il s'appuie sur la notion d'outils (tools) que l'agent peut invoquer pour interagir avec son environnement. Ces outils vont bien au-delà de la simple recherche vectorielle.
Maxime Jumelle
CTO & Co-Founder
Lire l'article

10 déc. 2025
LangGraph repose sur un concept fondamental : représenter les applications LLM comme des graphes orientés où les nœuds correspondent à des étapes de traitement et les arêtes définissent les transitions entre ces étapes. Cette modélisation s'inspire directement de la théorie des graphes et offre une expressivité bien supérieure aux chaînes séquentielles traditionnelles.
Maxime Jumelle
CTO & Co-Founder
Lire l'article

8 déc. 2025
Le merging de LLM (ou fusion de modèles) est une technique qui suscite un intérêt croissant dans la communauté de l'IA générative. Plutôt que d'entraîner un nouveau modèle depuis zéro ou de faire du fine-tuning coûteux, cette approche consiste à combiner plusieurs modèles existants pour en créer un nouveau qui hérite des forces de chacun.
Maxime Jumelle
CTO & Co-Founder
Lire l'article

5 déc. 2025
Un superviseur d'agents est une architecture multi-agents hiérarchique où un agent central, le superviseur, coordonne l'activité de plusieurs agents spécialisés appelés workers ou agents subordonnés. Contrairement à une architecture où un agent unique tente de tout faire, le superviseur délègue les tâches aux agents les mieux adaptés et synthétise leurs contributions pour produire un résultat final cohérent.
Maxime Jumelle
CTO & Co-Founder
Lire l'article

3 déc. 2025
Le Model Context Protocol (MCP) est un protocole de communication open source conçu pour standardiser la façon dont les applications basées sur des LLM accèdent à des données contextuelles et interagissent avec des outils externes. Lancé par Anthropic fin 2024, il répond à un besoin croissant d'interopérabilité dans l'écosystème de l'IA générative.
Maxime Jumelle
CTO & Co-Founder
Lire l'article
60 rue François 1er
75008 Paris
Blent est une plateforme 100% en ligne pour se former aux métiers Tech & Data.
Organisme de formation n°11755985075.

Data Engineering
MLOps
Cloud & DevOps
À propos
Gestion des cookies
© 2025 Blent.ai | Tous droits réservés