本システムにおける llama-server は、外部プロセスとして動作する「推論エンジン」です。Rust コアにライブラリとして組み込むのではなく、サイドカー(別プロセス)として分離することで、以下の設計上の利点を得ています。
Tauri の Command API を使用して管理されます。
--embedding モードでバックグラウンド実行されます。現状、以下のパラメータで最適化されています。
--pooling mean: Embedding 精度の向上のための設定。--embedding: 入力テキストから特徴ベクトルを抽出する機能を有効化します。Windows 環境における DLL 地獄を防ぐため、以下の設計を徹底しています。
vec0.dll (sqlite-vec) などの依存ライブラリを実行ファイルと同階層に自動的にコピーします。LdgLibrary 等の仕組みを介さず、カレントディレクトリから優先的に DLL をロードするよう build.rs で制御しています。resources フォルダ内に適切な GGUF モデルが存在しない場合、ログにエラーが出力され、検索機能が無効化されます。