ローカルLLMを構築

初めに

ローカルLLMを構築した際の記録です。

参考

けっこう実用的。「OpenCode」×ローカルLLMで“無料Claude Code”してみた | ギズモード・ジャパン https://www.gizmodo.jp/2026/05/opencode_google_gemma_4.html

OpenAI Codex / Claude codeでLocal LLMを実行 https://zenn.dev/edna_startup/scraps/e5f7e294b2ede3

Codex CLI 完全リファレンス #OpenAI - Qiita https://qiita.com/nogataka/items/d053468277b37c83ec3a

眠っているIntelのNPUをLLMで叩き起こしてみた https://pc.watch.impress.co.jp/docs/topic/feature/2096319.html

知識ゼロからAnythingLLMとLM StudioでRAG構築 https://qiita.com/junk1400/items/e2bc8c90993c123ac579

LM Studio と Zed でコーディング

LM Studio

インストール

自分の環境に応じたモデルをダウンロード

ローカルサーバーの設定 ローカルサーバーの設定

  1. 左に並ぶアイコンから Developer をクリック
  2. Status のところをクリックして Running にする
  3. Load Modelでモデルを読み込み
  4. 右パネルを開いてコンテキスト長を調整

URLを控えておく。上記だと http://127.0.0.1:44401

左下歯車アイコンから設定を開く

Developerの設定 Developerの設定

Zed

インストール

左下アイコン二つ目「Agent Panel」を開いて、パネル右上アイコンから設定開く Agent Panel

Add Agent ボタン → Install from Registory Add Agent

Codex CLI をインストール

次のファイルをテキストとして開く。なければ作る。

“C:\Users\<Windowsユーザー名>\.codex\config.toml”

中身にモデル名など追加。同名のキーがあるなら先頭 # でコメントにして残しておく方が無難。URLは /v1 追加

model = "google/gemma-4-e4b"
model_provider = "lmstudio-local"

[model_providers.lmstudio-local]
name = "LM Studio"
base_url = "http://127.0.0.1:44401/v1"
wire_api = "responses"

設定に戻って、LM Studio のところにURLを入れる。なおここでは /api/v1 LM Studio 右下 Connect を押すとURLにチェックマークがつく。

Zed を再起動

適当な作業フォルダを作り選択

Agent Panel を開く。

左上から「Codex CLI」を選ぶ

選択したモデルを選ぶ

Codex app の場合

(追記:2026/05/04)

本当は Zed から Codex CLI を使うのではなく Codex app を使いたかったが、現状不具合があって出来なかった。

“invalid_request_error” when passing tools with the type “namespace” using Codex and enabled MCPs https://github.com/lmstudio-ai/lmstudio-bug-tracker/issues/1810

Foundly local と AnythingLLM で NPU 使用

ここではNPUに限った書き方をしますが、GPUやCPUのモデルでも可能です。

Foundly local

PowerShell で順に入力

winget install Microsoft.FoundryLocal
foundry model list --filter device=NPU
foundry model download DeepSeek-R1-Distill-Qwen-7B-openvino-npu:3
foundry model load DeepSeek-R1-Distill-Qwen-7B-openvino-npu:3

2026/05/02現在のNPU対応リスト

🟢 Service is Started on http://127.0.0.1:50373/, PID 24896!
🕚 Downloading complete!...
Successfully downloaded and registered the following EPs: NvTensorRTRTXExecutionProvider, OpenVINOExecutionProvider, CUDAExecutionProvider.
Valid EPs: CPUExecutionProvider, WebGpuExecutionProvider, NvTensorRTRTXExecutionProvider, OpenVINOExecutionProvider, CUDAExecutionProvider
Alias                          Device     Task           File Size    License      Model ID
-----------------------------------------------------------------------------------------------
qwen2.5-coder-0.5b             NPU        chat, tools    0.32 GB      apache-2.0   qwen2.5-coder-0.5b-instruct-openvino-npu:4
---------------------------------------------------------------------------------------------------------------------------------
phi-4-mini-reasoning           NPU        chat           2.15 GB      MIT          Phi-4-mini-reasoning-openvino-npu:3
--------------------------------------------------------------------------------------------------------------------------
qwen2.5-0.5b                   NPU        chat, tools    0.32 GB      apache-2.0   qwen2.5-0.5b-instruct-openvino-npu:4
---------------------------------------------------------------------------------------------------------------------------
qwen2.5-1.5b                   NPU        chat, tools    0.86 GB      apache-2.0   qwen2.5-1.5b-instruct-openvino-npu:4
---------------------------------------------------------------------------------------------------------------------------
qwen2.5-coder-1.5b             NPU        chat, tools    0.87 GB      apache-2.0   qwen2.5-coder-1.5b-instruct-openvino-npu:4
---------------------------------------------------------------------------------------------------------------------------------
phi-4-mini                     NPU        chat, tools    2.15 GB      MIT          phi-4-mini-instruct-openvino-npu:3
-------------------------------------------------------------------------------------------------------------------------
qwen2.5-coder-7b               NPU        chat, tools    4.17 GB      apache-2.0   qwen2.5-coder-7b-instruct-openvino-npu:3
-------------------------------------------------------------------------------------------------------------------------------
qwen2.5-7b                     NPU        chat, tools    4.17 GB      apache-2.0   qwen2.5-7b-instruct-openvino-npu:3
-------------------------------------------------------------------------------------------------------------------------
deepseek-r1-7b                 NPU        chat           4.17 GB      MIT          DeepSeek-R1-Distill-Qwen-7B-openvino-npu:3
---------------------------------------------------------------------------------------------------------------------------------
phi-3-mini-4k                  NPU        chat           2.13 GB      MIT          Phi-3-mini-4k-instruct-openvino-npu:2
----------------------------------------------------------------------------------------------------------------------------
mistral-7b-v0.2                NPU        chat           3.60 GB      apache-2.0   Mistral-7B-Instruct-v0-2-openvino-npu:2

AnythingLLM

インストール

AnythingLLM メイン

左下アイコンの一番右から設定を開く

AnythingLLM 設定

AIプロバイダー → LLM → Microsoft Foundly local

ChatModel を選ぶ

右上 Save changes を押す。ボタンは変更がある場合にしか出てこない。押すのを忘れがちなので気を付ける。

top

その他の投稿

20260425-01 Unity UI Toolkit カスタムコントロールサンプル
20260103-01 Unity Entities Tips
20251231-01 Unity UI Toolkit カスタムコントロールサンプル
20250913-01 Unity アプリで Android 16KB ページサイズ確認
20250912-01 Unity 6 で Editor がちらつく問題
20250906-01 Win10サポート終了 ChromeOS Flex を入れてみてつまづいた所
20250812-02 Unity UI Toolkit でのタップ操作検出
20250812-01 Unity UI Toolkit でマップ画面 with RenderTexture
20250811-01 Unity UI Toolkit での座標変換
20250721-01 Unityでカメラが平行投影の場合にScreenToWorldPointがズレる