TelosDB を LLM 依存のない、軽量で自己完結したデスクトップアプリケーション(「軽さは正義」)に進化させるため。
lib.rs の MODEL_NAME 定数を LSA 用に更新した。search_text が LLM の埋め込み生成に失敗した際に LIKE 検索にフォールバックするが、最初から LSA を使うべき。
search_text 内部から get_embedding 呼び出しを削除し、直接 LSA モデルによる Cosine Similarity 計算を行うようリダイレクトした。llama-server プロセスが起動している。
lib.rs の setup ライフサイクルからサイドカー起動処理をコメントアウトし、完全に停止した。AIエージェント(Antigravity)は以下の手順で移行を実施した。
src-tauri/src/mcp.rs を大幅に書き換え、埋め込み生成 API への依存を排除した。mcp.rs 内で LsaModel を読み出し、ドキュメントの追加時や検索時に即座に LSA ベクトルを計算・照合するロジックを実装した。src/index.html において、スコアの計算式を 1 - distance から LSA の similarity に変更し、ステータス表示を LSA 稼働状況に合わせて調整した。cargo check によるビルド確認および cargo test による形態素解析・LSA コアロジックの動作検証を行い、全て正常であることを確認した。graph TD
A[User Request] --> B[Tauri App]
B --> C{LSA Model Loaded?}
C -- Yes --> D[Vibrato Tokenizer]
D --> E[LSA Vector Projection]
E --> F[Cosine Similarity Search]
C -- No --> G[SQL LIKE Search Fallback]
F --> H[Search Results]
G --> H
H --> I[UI Display]
subgraph "Excluded Components (Non-LLM)"
X[llama-server Sidecar]
Y[Gemma GGUF Model]
end
X -.->|Disabled| B
AIエージェントは、LLM 依存を排除することで起動速度の向上とリソース消費の劇的な削減を達成した。LSA モデルはメモリ上で完結し、外部サーバーとの通信や重い推論エンジンが不要になったため、本来の TelosDB のコンセプトである「究極の軽快さ」を実現できたと評価する。