| .agent/ rules | 5 days ago | ||
| .copilot | 5 days ago | ||
| .github | 8 days ago | ||
| .vscode | 6 days ago | ||
| document | 6 days ago | ||
| resources/ icons | 6 days ago | ||
| scripts | 5 days ago | ||
| src | 5 days ago | ||
| test | 6 days ago | ||
| .env.example | 6 days ago | ||
| .gitignore | 6 days ago | ||
| README.md | 5 days ago | ||
| bun.lock | 6 days ago | ||
| dummy.js | 6 days ago | ||
| jsconfig.json | 8 days ago | ||
| launch.cmd | 6 days ago | ||
| package-lock.json | 6 days ago | ||
| package.json | 6 days ago | ||
SQLite と Rust で構築された、ローカル向けベクトル検索サーバー
Model Context Protocol (MCP) に準拠した、ローカル実行用のベクトル検索サーバーです。Tauri v2 および Rust をベースに構築されています。
Gemma 3 300M Embedding モデルや llama-server をサイドカーとして利用することで、外部ネットワークに依存せず、ローカル環境のみでテキストのベクトル化と検索を行うことができます。
llama-server を内蔵し、オフラインでのテキスト処理が可能。. ├── .agent/ # エージェント用ルール・ドキュメント ├── bin/ # 外部バイナリ (llama-server等) ├── data/ # データベースファイル (vector.db) ├── document/ # 仕様・設計ドキュメント ├── journals/ # 開発記録 (Git管理外) ├── logs/ # アプリケーションログ ├── resources/ # アセット類 ├── scripts/ # ユーティリティスクリプト (analyze_nesting, count_lines等) ├── src/ │ ├── backend/ # Rust / Tauri バックエンド │ └── frontend/ # Webview UI └── test/ # テストコード
graph TD
subgraph "Frontend Layer (WebView2)"
UI["Status UI (JS/HTML)"]
end
subgraph "Tauri Backend Layer (Rust)"
Axum["MCP Server (SSE/JSON-RPC)"]
Tray["System Tray Manager"]
Sidecar["Sidecar Manager"]
ORM["SeaORM Layer"]
Llama["Llama API Client"]
end
subgraph "External Process Layer"
LS["llama-server.exe (Sidecar)"]
end
subgraph "Data Layer"
DB[("SQLite + sqlite-vec")]
Model["Gemma 3 300M (GGUF)"]
end
UI <--> Axum
Axum <--> ORM
ORM <--> DB
Llama <--> LS
Sidecar --> LS
LS --> Model
bun install bun setup bun dev
詳細は document/development_guide.md を参照してください。
| ツール名 | 用途 |
|---|---|
save_document |
文書の追加とベクトル化 |
find_documents |
文書の類似検索 |
llm_generate |
テキスト生成 |
| ... | (詳細は mcp_specification.md 参照) |
ISC License.