← Retourner à la liste des articles
Image blog
Auteur

Par Maxime Jumelle

CTO & Co-Founder

Publié le 15 déc. 2025

Catégorie Agentic AI

Agentic RAG : définitions et exemples

Le RAG (Retrieval-Augmented Generation) s'est imposé comme une technique incontournable pour enrichir les réponses des LLM avec des données externes et actualisées. Cependant, cette approche classique présente une limitation fondamentale : elle repose sur un pipeline linéaire où la recherche précède systématiquement la génération, sans possibilité d'adaptation en cours de route. Face à des requêtes complexes nécessitant plusieurs sources d'information ou une reformulation de la recherche initiale, le RAG traditionnel atteint rapidement ses limites.

C'est pour répondre à ces contraintes qu'émerge l'Agentic RAG, une évolution qui combine la puissance du RAG avec l'autonomie des agents IA. En dotant le système de capacités de raisonnement, de planification et d'exécution itérative, l'Agentic RAG transforme un simple pipeline de récupération en un système intelligent capable de naviguer dynamiquement dans les sources de données pour construire des réponses plus complètes et plus pertinentes.

Dans cet article, nous allons explorer en profondeur ce qu'est l'Agentic RAG, comprendre ses différences fondamentales avec le RAG classique, et découvrir les cas d'usage où cette approche apporte une réelle valeur ajoutée.

Comprendre le RAG classique et ses limites

Avant d'aborder l'Agentic RAG, il est essentiel de bien comprendre le fonctionnement du RAG traditionnel et les situations où il montre ses faiblesses.

Le RAG classique suit un workflow séquentiel en trois étapes :

  • Indexation : les documents sont découpés en chunks, vectorisés via un modèle d'embedding, puis stockés dans une base de données vectorielle
  • Récupération : lorsqu'une requête arrive, elle est transformée en vecteur et une recherche de similarité identifie les chunks les plus pertinents
  • Génération : les chunks récupérés sont injectés dans le contexte du LLM qui génère la réponse finale

Cette architecture fonctionne remarquablement bien pour des questions simples et directes. Demander "Quelle est la politique de remboursement de l'entreprise ?" à un système RAG indexant la documentation interne produira généralement une réponse satisfaisante.

Cependant, plusieurs scénarios mettent en difficulté cette approche linéaire :

LimitationExempleConséquence
Requête ambiguë"Parle-moi des performances"Récupération de documents non pertinents
Information fragmentéeDonnées réparties sur plusieurs documentsRéponse incomplète
Besoin de raisonnement"Compare les ventes Q1 et Q2"Incapacité à agréger les informations
Requête multi-étapes"Trouve le client X et ses dernières commandes"Pipeline trop rigide

Le RAG classique ne peut pas reformuler sa recherche si les premiers résultats sont insatisfaisants, ni décider dynamiquement d'explorer une autre source de données. Il exécute aveuglément le pipeline préétabli, quel que soit le résultat intermédiaire obtenu.

L'Agentic RAG : une approche intelligente

L'Agentic RAG introduit une rupture conceptuelle en transformant le système RAG en un agent IA autonome capable de raisonner sur sa stratégie de recherche et d'adapter son comportement en fonction des résultats obtenus.

Dans cette architecture, le LLM ne se contente plus de générer une réponse à partir de documents fournis. Il devient le cerveau décisionnel du système, capable de :

  • Analyser la requête et déterminer la meilleure stratégie de recherche
  • Choisir parmi plusieurs sources de données celle qui semble la plus pertinente
  • Évaluer la qualité des documents récupérés et décider s'ils suffisent
  • Reformuler la recherche ou explorer d'autres pistes si nécessaire
  • Combiner des informations provenant de multiples recherches successives

Cette capacité d'adaptation repose sur les principes de l'Agentic AI, où l'agent opère en boucle itérative jusqu'à atteindre son objectif. Concrètement, un Agentic RAG pourrait fonctionner ainsi :

Requête utilisateur : "Quels sont les risques identifiés dans le projet Alpha 
et les mesures de mitigation proposées ?"

Thought: Cette question porte sur deux aspects distincts du projet Alpha. 
Je vais d'abord rechercher les documents relatifs aux risques.

Action: search_documents(query="risques projet Alpha", collection="projets")

Observation: 3 documents trouvés mentionnant des risques techniques et budgétaires.

Thought: J'ai des informations sur les risques. Je dois maintenant chercher 
les mesures de mitigation qui peuvent être dans d'autres documents.

Action: search_documents(query="mitigation mesures projet Alpha", collection="projets")

Observation: 2 documents trouvés avec des plans d'action.

Thought: J'ai maintenant suffisamment d'informations pour répondre de manière 
complète à la question de l'utilisateur.

Response: [Synthèse structurée des risques et mesures de mitigation]

Cette boucle de raisonnement permet au système de construire progressivement sa compréhension du sujet plutôt que de tout miser sur une unique recherche initiale.


À découvrir : notre formation Agentic AI


Outils et intégrations

L'Agentic RAG s'appuie sur la notion d'outils (tools) que l'agent peut invoquer pour interagir avec son environnement. Ces outils vont bien au-delà de la simple recherche vectorielle :

  • Recherche vectorielle : interrogation des bases de données d'embeddings
  • Recherche par mots-clés : requêtes BM25 ou full-text pour des termes précis
  • Filtrage métadonnées : restriction par date, auteur, catégorie
  • Requêtes SQL : accès à des bases de données structurées
  • Appels API : interrogation de systèmes externes en temps réel

Le Model Context Protocol (MCP) offre un cadre standardisé pour exposer ces différentes sources de données à l'agent. Plutôt que de développer des intégrations spécifiques pour chaque source, un serveur MCP peut exposer une base de connaissances de manière uniforme, facilitant la création de systèmes Agentic RAG modulaires et évolutifs.

from langchain.agents import AgentExecutor, create_openai_tools_agent
from langchain.tools import Tool

# Définition des outils disponibles pour l'agent
tools = [
    Tool(
        name="search_documentation",
        description="Recherche dans la documentation technique",
        func=vector_search_docs
    ),
    Tool(
        name="search_tickets",
        description="Recherche dans l'historique des tickets support",
        func=vector_search_tickets
    ),
    Tool(
        name="query_database",
        description="Exécute une requête SQL sur la base clients",
        func=execute_sql_query
    )
]

# Création de l'agent avec ses outils
agent = create_openai_tools_agent(llm, tools, prompt)
agent_executor = AgentExecutor(agent=agent, tools=tools, verbose=True)

Cas d'usage et exemples concrets

L'Agentic RAG démontre sa valeur dans des contextes où la complexité des requêtes ou la diversité des sources rendent l'approche classique insuffisante.

Recherche multi-sources en entreprise

Dans un environnement corporate, l'information est rarement centralisée. Un employé cherchant à comprendre un processus métier pourrait avoir besoin de consulter simultanément la documentation officielle, les emails de communication, les présentations de formation et les tickets de support antérieurs.

Un Agentic RAG peut naviguer intelligemment entre ces différentes sources, identifiant d'abord le processus dans la documentation, puis enrichissant sa réponse avec des cas concrets issus des tickets et des clarifications trouvées dans les communications internes. Cette capacité d'agrégation multi-sources serait impossible avec un RAG classique limité à une seule base vectorielle.

Support client intelligent

Pour un système de support client, l'Agentic RAG peut transformer une simple FAQ en un assistant véritablement conversationnel. Face à une question comme "Mon colis n'est pas arrivé, que se passe-t-il ?", l'agent peut :

  1. Identifier le client et récupérer ses informations de commande via une API
  2. Rechercher dans la base de connaissances les procédures liées aux retards de livraison
  3. Vérifier s'il existe des incidents connus affectant la zone de livraison
  4. Formuler une réponse personnalisée intégrant le statut réel de la commande

Cette orchestration intelligente produit une réponse contextualisée et actionnable, là où un RAG classique se contenterait d'informations génériques sur les délais de livraison.

Analyse documentaire complexe

Dans des domaines comme le juridique ou la conformité réglementaire, les questions portent souvent sur des relations entre concepts dispersés dans de multiples documents. Une requête comme "Ce contrat est-il conforme aux exigences RGPD ?" nécessite d'identifier les clauses pertinentes du contrat, de les confronter aux articles du règlement, et d'analyser la jurisprudence applicable.

L'Agentic RAG peut décomposer cette analyse en sous-tâches, rechercher séquentiellement dans différentes collections (contrats, réglementation, jurisprudence), et synthétiser une réponse argumentée que le RAG traditionnel serait incapable de produire.


À lire : découvrez notre formation Agentic AI


Quand privilégier l'Agentic RAG ?

Le choix entre RAG classique et Agentic RAG dépend du contexte d'utilisation :

CritèreRAG classiqueAgentic RAG
Complexité des requêtesQuestions simples et directesQuestions multi-facettes ou ambiguës
Sources de donnéesBase unique et homogèneSources multiples et hétérogènes
Latence acceptableRéponse immédiate requiseTemps de réflexion acceptable
CoûtBudget contraintBudget flexible
PrévisibilitéComportement déterministe souhaitéAdaptabilité privilégiée

L'Agentic RAG introduit inévitablement une latence supplémentaire liée aux multiples appels au LLM pour le raisonnement, ainsi qu'un coût accru en tokens. Pour des cas d'usage simples où une recherche unique suffit généralement, le RAG classique reste le choix optimal. L'Agentic RAG prend tout son sens lorsque la qualité et l'exhaustivité des réponses justifient cet investissement supplémentaire.

Conclusion

L'Agentic RAG représente une évolution naturelle de la technique RAG, adaptée aux exigences croissantes des applications d'IA en entreprise. En dotant le système de capacités de raisonnement et de planification, cette approche transcende les limitations du pipeline linéaire traditionnel pour offrir une expérience véritablement intelligente.

La combinaison de la récupération augmentée avec les principes de l'Agentic AI ouvre la voie à des systèmes capables de naviguer dynamiquement dans des environnements informationnels complexes. Qu'il s'agisse de recherche multi-sources, de support client contextualisé ou d'analyse documentaire approfondie, l'Agentic RAG démontre sa valeur dès que les requêtes dépassent le cadre des questions simples.

Pour les équipes développant des applications LLM, l'adoption de l'Agentic RAG nécessite un changement de paradigme : il ne s'agit plus seulement de construire un index performant, mais de concevoir un agent capable d'exploiter intelligemment les ressources à sa disposition. Les outils comme le Model Context Protocol facilitent cette transition en standardisant l'accès aux sources de données. À mesure que les cas d'usage se complexifient, maîtriser l'Agentic RAG devient un atout différenciant pour construire des systèmes d'IA véritablement utiles et pertinents.

Articles similaires

Blog

23 déc. 2025

Agentic AI

L'émergence de l'Agentic AI a transformé notre façon de concevoir les systèmes d'intelligence artificielle. Un agent IA autonome, capable de raisonner, planifier et exécuter des actions, représente déjà une avancée majeure par rapport aux LLM classiques. Cependant, face à des missions complexes nécessitant des compétences variées ou un volume de travail conséquent, un agent unique atteint rapidement ses limites.

Maxime Jumelle

Maxime Jumelle

CTO & Co-Founder

Lire l'article

Blog

18 déc. 2025

Agentic AI

L'évaluation d'un agent IA s'articule autour de plusieurs familles de métriques qui, ensemble, fournissent une vision complète de sa performance opérationnelle.

Maxime Jumelle

Maxime Jumelle

CTO & Co-Founder

Lire l'article

Blog

10 déc. 2025

Agentic AI

LangGraph repose sur un concept fondamental : représenter les applications LLM comme des graphes orientés où les nœuds correspondent à des étapes de traitement et les arêtes définissent les transitions entre ces étapes. Cette modélisation s'inspire directement de la théorie des graphes et offre une expressivité bien supérieure aux chaînes séquentielles traditionnelles.

Maxime Jumelle

Maxime Jumelle

CTO & Co-Founder

Lire l'article