2025年、検索拡張生成(RAG)は、「静的パイプライン」から「自律エージェント」へのパラダイムシフトを経験しています。OpenAIのDeep Researchは、マルチステッププランニング、ツール呼び出し、動的推論を通じて、複雑なリサーチタスクを分単位に短縮し、この方向性の可能性を示しました。しかし、そのクローズドなアーキテクチャと固定された戦略では、企業が求める制御性、コスト効率、データ主権のニーズを満たすことは困難です。本記事では、Open Deep Wide Research(ODWR)を提案します。これは、Deep Researchの中核機能を再現しつつ、開発者に深さ、幅、遅延に対するきめ細かな制御権を与えることを目的とした、オープンソースでMCP互換の、実行時戦略調整をサポートするAgentic RAGフレームワークです。
従来のRAGシステムは、「検索→並べ替え→生成」という線形的なフローを採用しており、事実に基づく質疑応答には適していますが、以下のシナリオでは性能が不十分です。
OpenAIのDeep Researchは、**エージェント型アーキテクチャを導入することでこれらの問題を解決しました。タスクをサブゴールに分解し、ブラウザやPythonツールを呼び出し、リアルタイムで戦略を調整し、引用付きの構造化レポートを出力します。この設計はAgentic RAG**の実現可能性を証明しましたが、同時にブラックボックスモデル、カスタムツールチェーンの欠如、リソーススケジューリングインターフェースの不在といった重要な限界も露呈しました。
私たちはDeep Researchの公開技術情報(OpenAI, 2025)を分析し、再利用可能な3つの設計原則を抽出しました。
これらのメカニズムは、**MCP(Model Context Protocol)**によって標準化・カプセル化できます。MCPは、エージェントとツールの間のコンテキスト伝達、状態同期、エラー回復プロトコルを定義し、異なるコンポーネント(LLM、クローラー、データベースなど)のプラグアンドプレイを可能にします。
上記の洞察に基づき、私たちは**Open Deep Wide Research(ODWR)**を開発しました。これは、以下の特徴を持つ、オープンソースでセルフホスト可能なAgentic RAGシステムです。
ユーザーは実行時に以下を指定できます。
例:軽量モード(Depth=2, Width=10, Latency=2min)は製品比較に、ディープモード(Depth=8, Width=50, Latency=20min)は学術研究レビューに適しています。
| 項目 | OpenAI Deep Research | Open Deep Wide Research |
|---|---|---|
| アクセシビリティ | ChatGPTの有料プランユーザー限定 | オープンソース、セルフホスト可能 |
| ツール拡張性 | クローズド(OpenAIのみ提供) | MCP互換、任意のツールがプラグイン可能 |
| 制御の粒度 | 固定戦略 | Depth/Width/Latencyの3パラメータで調整可能 |
| データ主権 | OpenAIクラウドに依存 | プライベートナレッジベースとローカル実行をサポート |
| 出力・エクスポート | ChatGPT内のみ | API、JSON、Markdownでのエクスポートをサポート |
私たちはpuppyoneプラットフォームにODWRの簡易版を統合し、ユーザーがエンタープライズレベルのAgentic RAGアプリケーションを迅速に構築できるようにしました。
Puppyoneは無料トライアルをサポートしており、チームコラボレーションや高並行処理シナリオ向けのProfessionalプランも提供しています。https://www.puppyone.ai/にアクセスして、あなたのAgentic RAG実践を始めましょう。
Q1:ODWRはDeep Researchの代替となり得ますか? 機能的にはその80%以上のシナリオをカバーでき、特にデータプライバシー、コスト管理、またはカスタムツールを必要とする企業に適しています。ただし、OpenAIの専有モデル(o3など)に依存する極めて複雑なタスクでは、パフォーマンスが若干劣る可能性があります。
Q2:使用するのにプログラミングの知識は必要ですか? Puppyoneのグラフィカルインターフェースを使えば、非技術者でもタスクテンプレートを設定できます。一方、開発者はMCP APIを通じてエージェントの挙動を詳細にカスタマイズできます。
Q3:コストはどのように管理できますか? ODWRでは、最大トークン消費量、ツール呼び出し回数、タイムアウトしきい値を設定できます。また、軽量モデル(o4-miniやDeepSeek-Liteなど)に切り替えることで、推論コストを大幅に削減できます。