README_JA.md
</a>
</a>
<a href="https://chatbot.weixin.qq.com" target="_blank">
</a>
<a href="https://github.com/Tencent/WeKnora/blob/main/LICENSE">
</a>
<a href="./CHANGELOG.md">
</a>
プロジェクト紹介 • アーキテクチャ設計 • コア機能 • クイックスタート • ドキュメント • 開発ガイド
</h4> </p>WeKnora(ウィーノラ) は、大規模言語モデル(LLM)をベースとしたオープンソースのナレッジフレームワークで、エンタープライズ級の文書理解、セマンティック検索、自律推論シナリオ向けに設計されています。
本フレームワークは 3 つのコア能力 を中心に構築されています:日常的な検索に最適な RAG ベースのクイック Q&A、ナレッジ検索・MCP ツール・Web 検索を自律的にオーケストレーションし複雑なマルチステップタスクを処理する ReAct Agent 推論、そして Agent が生のドキュメントから相互リンクされた Markdown ナレッジベースとインタラクティブなナレッジグラフを自律生成・維持する全く新しい Wiki モード。さらに、多様なデータソース連携(Feishu / Notion / Yuque、随時拡充中)、20 以上の LLM プロバイダー統合、Langfuse による全体可観測性、完全セルフホスト可能なモジュラーアーキテクチャと組み合わせることで、WeKnora は散在する文書を「検索可能・推論可能・継続的に進化する」専用ナレッジ資産へと昇華させます。
Feishu、Notion、Yuqueなどの外部プラットフォームからのナレッジ自動同期(他のデータソースも順次対応中)に対応し、PDF、Word、画像、Excelなど10以上の文書フォーマットをサポート。WeChat Work、Feishu、Slack、TelegramなどのIMチャネルから直接Q&Aサービスを提供できます。モデル層ではOpenAI、DeepSeek、Qwen(Alibaba Cloud)、Zhipu、Hunyuan、Gemini、MiniMax、NVIDIA、Ollamaなど主要プロバイダーに対応。全プロセスをモジュラー設計し、大規模モデル、ベクトルデータベース、ストレージなどのコンポーネントを柔軟に差し替え可能。ローカルおよびプライベートクラウドデプロイに対応し、データは完全に自己管理可能です。さらにWeKnoraは Langfuse とシームレスに統合され、Agentの推論、トークン消費、パイプラインに対する包括的な可観測性(オブザーバビリティ)を提供します。
v0.5.0 バージョンのハイライト:
json_repairツールが追加され、OpenMAIC Classroomスキルがプリロードされ、DuckDBデータ分析でExcelのすべてのシートを読み込むサポートが強化されました。llm_debug)およびログ記録メカニズムが包括的に強化されました。v0.4.0 バージョンのハイライト:
v0.3.6 バージョンのハイライト:
v0.3.5 バージョンのハイライト:
v0.3.4 バージョンのハイライト:
v0.3.3 バージョンのハイライト:
v0.3.2 バージョンのハイライト:
v0.3.0 バージョンのハイライト:
DISABLE_REGISTRATION制御v0.2.0 バージョンのハイライト:
文書解析・ベクトル化・検索から大規模モデル推論まで、全パイプラインをモジュラー分離。各コンポーネントは柔軟に差し替え・拡張可能。ローカル / プライベートクラウドデプロイに対応し、データ完全自己管理、ゼロバリアの Web UI で即座に利用開始。
インテリジェント対話
| 機能 | 詳細 |
|---|---|
| インテリジェント推論 | ReACT プログレッシブ・マルチステップ推論、ナレッジ検索・MCP ツール・Web 検索を自律的にオーケストレーション、カスタムエージェント対応 |
| クイック Q&A | ナレッジベースベースの RAG Q&A、迅速かつ正確な回答 |
| Wiki モード | Agent主導で生のドキュメントから構造化された相互リンク済みMarkdown Wikiページを自動生成・保守 |
| ツール呼び出し | 組み込みツール、MCP ツール、Web 検索 |
| 対話戦略 | オンライン Prompt 編集、検索閾値チューニング、マルチターン文脈認識 |
| 推奨質問 | ナレッジベースの内容に基づく質問の自動生成 |
ナレッジ管理
| 機能 | 詳細 |
|---|---|
| ナレッジベースタイプ | FAQ / ドキュメント / Wiki、フォルダーインポート・URL インポート・タグ管理・オンライン入力 |
| データソースインポート | Feishu / Notion / Yuque ナレッジベースの自動同期(他のデータソースも開発中)、増分・全量同期対応 |
| 文書フォーマット | PDF / Word / Txt / Markdown / HTML / 画像 / CSV / Excel / PPT / JSON |
| 検索戦略 | BM25 疎検索 / Dense 密検索 / GraphRAG グラフ強化 / 親子チャンキング / 多次元インデックス |
| E2E テスト | 検索+生成の全パイプライン可視化、リコール的中率・BLEU / ROUGE 指標評価 |
連携と拡張
| 機能 | 詳細 |
|---|---|
| 大規模モデル | OpenAI / Azure OpenAI / DeepSeek / Qwen (Alibaba Cloud) / Zhipu / Hunyuan / Doubao (Volcengine) / Gemini / MiniMax / NVIDIA / Novita AI / SiliconFlow / OpenRouter / Ollama |
| Embedding | Ollama / BGE / GTE / OpenAI 互換 API |
| ベクトル DB | PostgreSQL (pgvector) / Elasticsearch / Milvus / Weaviate / Qdrant |
| オブジェクトストレージ | ローカル / MinIO / AWS S3 / 火山引擎 TOS / Alibaba Cloud OSS |
| IM 統合 | WeChat Work / Feishu / Slack / Telegram / DingTalk / Mattermost / WeChat |
| Web 検索 | DuckDuckGo / Bing / Google / Tavily / Baidu / Ollama |
プラットフォーム
| 機能 | 詳細 |
|---|---|
| デプロイ | ローカル / Docker / Kubernetes (Helm)、プライベート化・オフラインデプロイ対応 |
| UI | Web UI / RESTful API / Chrome Extension |
| 可観測性 | ReActループ、トークン消費、ツール呼び出し、パイプライン追跡のためのLangfuse統合 |
| タスク管理 | MQ 非同期タスク、バージョンアップ時の DB 自動マイグレーション |
| モデル管理 | 集中設定、ナレッジベース単位のモデル選択、マルチテナント組み込みモデル共有、WeKnora Cloud ホスティングモデルとドキュメント解析 |
WeKnora Chrome 拡張機能を使えば、ブラウザからWebコンテンツをWeKnoraナレッジベースに直接取り込めます。テキスト、画像、ページ全体を選択してワンクリックでナレッジエントリとして保存——コピペやファイルアップロード不要です。
WeKnora ClawHub SkillはClawHubプラットフォームで公開されたWeKnoraスキルです。インストール後、WeKnora REST APIを通じてドキュメントのアップロード(ファイル / URL / Markdown)、ハイブリッド検索(ベクトル + キーワード)、ナレッジエントリの管理が可能になります。
git clone https://github.com/Tencent/WeKnora.git
cd WeKnora
cp .env.example .env # 必要に応じて .env を編集(詳細はファイル内のコメント参照)
docker compose up -d # コアサービスを起動
起動後、http://localhost にアクセスして利用開始。
ローカル Ollama モデルを使用する場合は、先に
ollama serve > /dev/null 2>&1 &を実行してください。
--profile フラグで追加コンポーネントを有効化。複数の profile を組み合わせ可能:
| Profile | 説明 | コマンド |
|---|---|---|
| (デフォルト) | コアサービス | docker compose up -d |
full | 全機能 | docker compose --profile full up -d |
neo4j | ナレッジグラフ (Neo4j) | docker compose --profile neo4j up -d |
minio | オブジェクトストレージ (MinIO) | docker compose --profile minio up -d |
langfuse | トレーシング (Langfuse) | docker compose --profile langfuse up -d |
組み合わせ例:docker compose --profile neo4j --profile minio up -d
サービス停止:docker compose down
| サービス | URL |
|---|---|
| Web UI | http://localhost |
| バックエンド API | http://localhost:8080 |
| Langfuse トレーシング | http://localhost:3000 |
WeKnoraは文書をナレッジグラフに変換し、文書内の異なる段落間の関連関係を表示することをサポートします。ナレッジグラフ機能を有効にすると、システムは文書内部の意味関連ネットワークを分析・構築し、ユーザーが文書内容を理解するのを助けるだけでなく、インデックスと検索に構造化サポートを提供し、検索結果の関連性と幅を向上させます。
詳細な設定については、ナレッジグラフ設定ガイドをご参照ください。
MCP設定ガイド をご参照のうえ、必要な設定を行ってください。
WeKnoraはWeChat対話オープンプラットフォームのコア技術フレームワークとして、より簡単な使用方法を提供します:
よくある問題の解決:よくある問題
詳細なAPIドキュメントは:APIドキュメントを参照してください
製品計画と今後の機能:Roadmap
コードを頻繁に変更する必要がある場合、Dockerイメージを毎回再構築する必要はありません!高速開発モードを使用してください:
# インフラストラクチャを起動
make dev-start
# バックエンドを起動(新しいターミナル)
make dev-app
# フロントエンドを起動(新しいターミナル)
make dev-frontend
開発の利点:
詳細ドキュメント: 開発環境クイックスタート
WeKnora/
├── client/ # Goクライアント
├── cmd/ # アプリケーションエントリ
├── config/ # 設定ファイル
├── docker/ # Dockerイメージファイル
├── docreader/ # 文書解析プロジェクト
├── docs/ # プロジェクトドキュメント
├── frontend/ # フロントエンドプロジェクト
├── internal/ # コアビジネスロジック
├── mcp-server/ # MCPサーバー
├── migrations/ # データベースマイグレーションスクリプト
└── scripts/ # 起動およびツールスクリプト
Issue や Pull Request の提出を歓迎します。
フロー: Fork → ブランチ作成 → 変更をコミット → PR を作成
規約: gofmt でコードをフォーマット、Conventional Commits に従う(feat: / fix: / docs: / test: / refactor:)
重要: v0.1.3バージョンより、WeKnoraにはシステムセキュリティを強化するためのログイン認証機能が含まれています。v0.2.0では、さらに多くの機能強化と改善が追加されました。本番環境でのデプロイメントにおいて、以下を強く推奨します:
素晴らしいコントリビューターに感謝します:
このプロジェクトはMITライセンスの下で公開されています。 このプロジェクトのコードを自由に使用、変更、配布できますが、元の著作権表示を保持する必要があります。