Newer
Older
TelosDB / document / 01_system_overview.md

システム概要 (System Overview)

1. 開発背景と目的

TelosDB は、プライバシーを重視したローカル専用の「意味検索(Vector Search)基盤」を提供するために開発されました。

現代の AI 活用において、外部クラウド(OpenAI 等)へのデータ送信はセキュリティ上の大きな懸念事項です。本システムは、LLM(Embedding モデル)とベクトルエンジンをすべてユーザーのローカル環境(Windows Desktop)で動作させることにより、以下の価値を提供します。

  • 絶対的なプライバシー: 文章データやベクトルデータがネットワークを介して外部に送信されることはありません。
  • オフライン動作: サーバーメンテナンスやインターネット接続環境に左右されず、常に高速な検索が可能です。
  • コストゼロ: 推論はローカル GPU/CPU で行われるため、月額費用や API トークン費用が発生しません。

2. 主要機能詳説

機能 解説 技術的実装
ローカル・セマンティック検索 キーワードの一致だけでなく、文脈や意味に基づいた検索を実現。 sqlite-vec + Gemma-3 (Local)
MCP (Model Context Protocol) AI エージェント(Cursor, Claude Desktop, IDE 等)が本ツールを「外部知識」として呼び出すための標準規格。 SSE Transport (Port 3001)
GPU 加速推論 モデルの推論計算を GPU で高速化。低スペック PC でも快適な動作を実現。 Vulkan / llama-server
セルフヒーリング (Self-healing) DB 内のテキストとベクトルの不一致を検出し、バックグラウンドで自動同期。 db::sync_vectors
常駐・軽量 UI システムトレイに常駐し、SSE を使った非同期通信でバックグラウンドログをリアルタイム表示。 Tauri 2 + HTML/JS/Axum

3. システム特性 (Technical Highlights)

  • Hermetic Design: Sidecar (llama-server) や必要な DLL 群をパッケージ内に封入し、ユーザー環境(MinGW や Python 等)のインストール状況に依存せず「置いてすぐ動く」ことを重視しています。
  • Gemma-3 統合: Google の最新軽量モデル Gemma-3 270m を採用。640 次元の高精度な埋め込み(Embedding)を、わずかなリソースで提供します。

4. 動作環境

  • OS: Windows 10/11 (64-bit)
  • CPU: AVX2 命令セット対応推奨
  • GPU: Vulkan 対応ハードウェア (オプション、自動検出)
  • モデル: Gemma-3 270m (640 dimensions)