個人的なメモ

Tomohiro Suzuki @hiro128_777 のブログです。Microsoft MVP for Developer Technologies 2017- 本ブログと所属組織の公式見解は関係ございません。

LM Studio の Model を Visual Studio Code の AI Toolkit に Bring Your Own Model (BYOM) として登録する

Visual Studio Code の AI Toolkit で選択できないローカル LLM を利用したいとき、現状では LM Studio の Model を Bring Your Own Model (BYOM) として登録してしまうのが最も手っ取り早いです。

LM Studio 側の準備

例えば今話題の Qwen3.5-9B を使いたいときには、まず LM Studio でモデルを DL します。

モデルをロードし、エンドポイントと、Status が Running になっていること、OpenAI 互換のエンドポイントになっていることを確認しておきます。

また、Server Settings の 「ローカルネットワークで提供」も ON にします。

curl でアクセスできればOKです。コマンドが通らなければ、エンドポイントと「ローカルネットワークで提供」の設定を確認してください

Visual Studio Code の AI Toolkit 側の準備

MODEL TOOLS > Model Catarog > +Add Your Own Model

Chat completion のエンドポイントを入力します

以下のコマンドで確認できる正式なモデル名を入力します。

curl http://192.168.1.14:1234/v1/models
{
  "data": [
    {
      "id": "qwen/qwen3.5-9b",
      "object": "model",
      "owned_by": "organization_owner"
    },

AI Toolkit での表示用のデル名を入力します

API Key を入力します。LM Studio は API Key 不要なので lm-studio などダミーの文字列を入力します。

登録されました。

Playground で動作確認します。

LM Studio にプロンプトが投げられていれば、 LM Studio の log が出力されます。出力されない場合は、curl でモデル一覧が表示されていることが確認できていれば、AI Toolkit に設定したエンドポイントが間違っている可能性が高いです。

無事動作しました。

設定は以下のフォルダに保存されています

%USERPROFILE%\.aitk\models

my-models.yaml を直接書き換えてもOKです。

# yaml-language-server: $schema=

version: v0.1
providers:
  - name: ONNX
  - name: Ollama
  - name: Custom
    models:
      - name: Qwen3.5-9B
        chat_completion_url: http://localhost:1234/v1/chat/completions
        headers:
          Authorization: '{"i":"xxxxxxxxxxxxxxxxxxxxx","c":"xxxxxxxxxxxxxxxxxxxxxx","t":"xxxxxxxxxxxxxxxxxxxxxxx","author":"AI
            Toolkit"}'
        api_model_name: qwen/qwen3.5-9b
  - name: Foundry Local
    models:
      []