GitHub Copilot で LM Studio のローカルモデルを使用するには、Visual Studio Code - Insiders を使用する必要があります。 code.visualstudio.com
LM Studio 側の準備
例えば今話題の Qwen3.5-9B を使いたいときには、まず LM Studio でモデルを DL します。

モデルをロードし、エンドポイントと、Status が Running になっていることを確認しておきます。

また、Server Settings の 「ローカルネットワークで提供」も ON にします。

curl でアクセスできればOKです。コマンドが通らなければ、エンドポイントと「ローカルネットワークで提供」の設定を確認してください

Visual Studio Code - GitHub Copilot の準備
モデル名の右の下向きのアローをクリックして、Search Models の右端の設定アイコンをクリックします

モデルの一覧が表示されるので、[+モデルを追加]をクリック

OpenAICompatibleを選択

LM Srudio などわかりやすい名前を入力

LM Srudio は API Key 不要なので、dammy などダミーの文字列を入力

%USERPROFILE%\AppData\Roaming\Code - Insiders\User\chatLanguageModels.json が自動で開きます。開かないときは、自分で開きます。
[
{
"name": "LM Studio",
"vendor": "customoai",
"apiKey": "${input:chat.lm.secret.-12345678}",
"models": [
{
"id": "qwen/qwen3.5-9b",
"name": "Qwen3.5-9B",
"url": "http://localhost:1234/v1/chat/completions",
"toolCalling": true,
"vision": true,
"maxInputTokens": 206000,
"maxOutputTokens": 32000
}
]
}
]
目のアイコンを斜線なしに変更する。

モデルピッカーに表示され、選択できるようになります。

試しに質問してみます。

VS Code 側でタスクが始まり、

LM Studio 側でも処理が始まります。

処理が終わりました。
