Résumé
En 2025, la génération augmentée par récupération (RAG) connaît une transition de paradigme, passant des « pipelines statiques » aux « agents autonomes ». Deep Research d'OpenAI démontre le potentiel de cette approche, en compressant des tâches de recherche complexes en quelques minutes grâce à la planification en plusieurs étapes, à l'utilisation d'outils et au raisonnement dynamique. Cependant, son architecture fermée et ses stratégies fixes peinent à répondre aux exigences des entreprises en matière de contrôlabilité, de maîtrise des coûts et de souveraineté des données. Cet article présente Open Deep Wide Research (ODWR), un framework RAG agentique open source, compatible MCP, qui prend en charge l'ajustement des politiques à l'exécution. Il vise à répliquer les capacités fondamentales de Deep Research tout en donnant aux développeurs un contrôle précis sur la profondeur, la largeur et la latence.
Contexte du problème : les goulots d'étranglement évolutifs du RAG
Les systèmes RAG traditionnels utilisent un pipeline linéaire « extraire → reclasser → générer », adapté aux questions-réponses factuelles mais insuffisant dans les scénarios suivants :
- Raisonnement en plusieurs sauts (multi-hop) : Par exemple, « Comparez les stratégies open source de trois entreprises d'IA entre 2024 et 2025 et leur impact sur l'écosystème des développeurs. »
- Fusion de données hétérogènes : Nécessite d'analyser simultanément des pages web, des livres blancs techniques en PDF et des rapports CSV fournis par l'utilisateur.
- Ajustement dynamique des tâches : Lorsque les premiers résultats de recherche sont de faible qualité, le système ne peut pas corriger de manière autonome les requêtes ou changer de source de données.
Deep Research d'OpenAI résout ces problèmes en introduisant une architecture agentique : il décompose les tâches en sous-objectifs, fait appel à des outils comme un navigateur et Python, ajuste ses stratégies en temps réel et produit des rapports structurés avec des citations. Cette conception valide la faisabilité du RAG agentique mais expose également des limites clés : des modèles en boîte noire, l'absence de chaînes d'outils personnalisées et un manque d'interfaces pour la planification des ressources.
Nous avons analysé les descriptions techniques publiques de Deep Research (OpenAI, 2025) et en avons extrait trois principes de conception réutilisables :
- Planification hiérarchique des tâches : Traduire les instructions de l'utilisateur en un parcours de recherche exécutable (par exemple, « identifier les concurrents → collecter les paramètres → valider les informations croisées → générer un tableau comparatif »).
- Exécution collaborative d'outils : Intégrer des navigateurs web, des interpréteurs de code et des analyseurs de fichiers pour former une boucle fermée.
- Production de résultats basés sur des preuves : Chaque conclusion est liée à sa source originale, ce qui favorise la traçabilité et la vérification.
Ces mécanismes peuvent être standardisés et encapsulés via le Model Context Protocol (MCP). Le MCP définit les protocoles pour la transmission de contexte, la synchronisation d'état et la récupération d'erreur entre les agents et les outils, permettant aux différents composants (comme les LLM, les crawlers et les bases de données) d'être interchangeables (plug-and-play).
Implémentation : l'architecture Open Deep Wide Research
Sur la base de ces observations, nous avons développé Open Deep Wide Research (ODWR), un système RAG agentique open source et auto-hébergeable, doté des fonctionnalités suivantes :
- Le contrôleur d'agent respecte la spécification MCP, prenant en charge le chargement dynamique d'outils (par exemple, navigateur Selenium, analyseur de PDF, moteur de requêtes SQL).
- Le contexte est transmis sous forme de JSON structuré, incluant l'état de la tâche, les URL visitées, les extraits cités et les scores de confiance.
2. Politiques réglables sur trois dimensions
Les utilisateurs peuvent spécifier à l'exécution :
- Profondeur (Depth) : Nombre maximal d'étapes de raisonnement (1 à 10), contrôlant la complexité logique.
- Largeur (Width) : Nombre de sources d'extraction parallèles (5 à 100+), influençant la couverture de l'information.
- Budget de latence (Latency) : Délai maximal strict (30 s à 30 min), avec repli automatique en cas de dépassement.
Exemple : Un mode léger (Profondeur=2, Largeur=10, Latence=2 min) est adapté aux comparaisons de produits ; un mode approfondi (Profondeur=8, Largeur=50, Latence=20 min) est utilisé pour les revues de littérature scientifique.
3. Mécanisme de recherche hybride et de replanification
- La recherche initiale utilise une stratégie hybride HyDE + vecteurs + mots-clés.
- Si une sous-tâche critique échoue (par exemple, le rapport financier d'une entreprise n'est pas trouvé), cela déclenche une boucle « retour en arrière - réécriture - nouvel essai ».
- Prend en charge les fichiers téléversés par l'utilisateur comme « connaissances d'ancrage » pour guider la direction de la recherche.
4. Open source et auto-hébergeable
- Le code est hébergé sur GitHub et prend en charge le déploiement en un clic avec Docker.
- Compatible avec les principaux LLM (par exemple, GPT-4o, Claude 3.5, DeepSeek-R1) via un adaptateur MCP unifié.
- Le format de sortie est Markdown + JSON, facilitant l'intégration avec Notion, Obsidian ou des systèmes internes.
Comparaison avec Deep Research
| Dimension | OpenAI Deep Research | Open Deep Wide Research |
|---|
| Accessibilité | Limité aux abonnés ChatGPT | Open source, auto-hébergeable |
| Extension des outils | Fermée (fournis par OpenAI uniquement) | Compatible MCP, tout outil est intégrable |
| Granularité du contrôle | Politique fixe | Réglable via trois paramètres : Profondeur/Largeur/Latence |
| Souveraineté des données | Dépendant du cloud d'OpenAI | Prend en charge les bases de connaissances privées et l'exécution locale |
| Exportation des résultats | Uniquement dans ChatGPT | Prend en charge l'exportation via API, JSON et Markdown |
Appel à l'action : découvrez dès maintenant les capacités d'ODWR
Nous avons intégré une version simplifiée d'ODWR sur la plateforme puppyone, permettant aux utilisateurs de créer rapidement des applications RAG agentiques de niveau entreprise :
- Téléversez des documents techniques pour générer automatiquement des rapports d'analyse concurrentielle.
- Connectez-vous à des bases de données internes pour permettre des « requêtes en langage naturel + recherche externe complémentaire ».
- Déployez-le comme un bot de service client qui cite automatiquement les documents de politique et les manuels d'utilisation.
puppyone propose un essai gratuit et un plan Professionnel pour la collaboration en équipe et les scénarios à haute concurrence. Visitez https://www.puppyone.ai/ pour commencer votre parcours avec le RAG agentique.
FAQ
Q1 : ODWR peut-il remplacer Deep Research ?
Fonctionnellement, il peut couvrir plus de 80 % de ses cas d'usage et est particulièrement adapté aux entreprises qui exigent la confidentialité des données, la maîtrise des coûts ou des outils personnalisés. Cependant, pour des tâches extrêmement complexes qui reposent sur les modèles propriétaires d'OpenAI (comme o3), les performances peuvent être légèrement inférieures.
Q2 : Faut-il des compétences en programmation pour l'utiliser ?
Les utilisateurs non techniques peuvent configurer des modèles de tâches via l'interface graphique de puppyone, tandis que les développeurs peuvent personnaliser en profondeur le comportement de l'agent via l'API MCP.
Q3 : Comment puis-je maîtriser les coûts ?
ODWR vous permet de définir une consommation maximale de tokens, des limites d'appels d'outils et des seuils de temps d'attente. Il prend également en charge le passage à des modèles plus légers (comme o4-mini ou DeepSeek-Lite) pour réduire considérablement les coûts d'inférence.