個人的なメモ

Tomohiro Suzuki @hiro128_777 のブログです。Microsoft MVP for Developer Technologies 2017- 本ブログと所属組織の公式見解は関係ございません。

GitHub Copilot のモデルピッカーで LM Studio のローカルモデルを使用する

GitHub Copilot で LM Studio のローカルモデルを使用するには、Visual Studio Code - Insiders を使用する必要があります。 code.visualstudio.com

LM Studio 側の準備

例えば今話題の Qwen3.5-9B を使いたいときには、まず LM Studio でモデルを DL します。

モデルをロードし、エンドポイントと、Status が Running になっていることを確認しておきます。

また、Server Settings の 「ローカルネットワークで提供」も ON にします。

curl でアクセスできればOKです。コマンドが通らなければ、エンドポイントと「ローカルネットワークで提供」の設定を確認してください

Visual Studio Code - GitHub Copilot の準備

モデル名の右の下向きのアローをクリックして、Search Models の右端の設定アイコンをクリックします

モデルの一覧が表示されるので、[+モデルを追加]をクリック

OpenAICompatibleを選択

LM Srudio などわかりやすい名前を入力

LM Srudio は API Key 不要なので、dammy などダミーの文字列を入力

%USERPROFILE%\AppData\Roaming\Code - Insiders\User\chatLanguageModels.json が自動で開きます。開かないときは、自分で開きます。

[
    {
        "name": "LM Studio",
        "vendor": "customoai",
        "apiKey": "${input:chat.lm.secret.-12345678}",
        "models": [
            {
                "id": "qwen/qwen3.5-9b",
                "name": "Qwen3.5-9B",
                "url": "http://localhost:1234/v1/chat/completions",
                "toolCalling": true,
                "vision": true,
                "maxInputTokens": 206000,
                "maxOutputTokens": 32000
            }
        ]
    }
]

目のアイコンを斜線なしに変更する。

モデルピッカーに表示され、選択できるようになります。

試しに質問してみます。

VS Code 側でタスクが始まり、

LM Studio 側でも処理が始まります。

処理が終わりました。