本システムは、Tauri の Sidecar 機能を活用し、内蔵された llama-server バイナリを動的に制御することで、外部 LLM サービスに依存しないローカル嵌入環境を提供します。
llama-serverx86_64-pc-windows-msvc (Windows 環境時)バイナリの起動に必要なライブラリ (ggml.dll, llama.dll 等) を確実に読み込むため、以下の制御を行います。
PATH の最優先にバイナリ配置フォルダを追加。起動時に以下のパラメータを指定します。
| 引数 | 値 | 説明 |
|---|---|---|
--model |
path/to/model | Gemma-3-300M (GGUF) を指定。 |
--port |
8080 | 内部通信用ポート。 |
--embedding |
enabled | 埋め込み (Vector) 生成モードを有効化。 |
--parallel |
1 | 生成効率と安定性のバランス。 |
initialize_app 内で実行。/health エンドポイントに対し 500ms 間隔でポーリング。API 準備完了を確認。