個人的なメモ

Tomohiro Suzuki @hiro128_777 のブログです。Microsoft MVP for Developer Technologies 2017- 本ブログと所属組織の公式見解は関係ございません。

2026-01-01から1年間の記事一覧

2026年3月に Windows で ローカル LLM を用いて GitHub Copilot を使うには

ローカル LLM を用いて GitHub Copilot を使いたいと思い、試してみました。 環境 CPU:Core Ultra 155H RAM:64GB IDE:Visual Studio Code Insiders 検証結果 FoundryLocal GitHub Copilot のモデルピッカーに表示させるのは簡単です。 表示させたいモデル…

GitHub Copilot のモデルピッカーで LM Studio のローカルモデルを使用する

GitHub Copilot で LM Studio のローカルモデルを使用するには、Visual Studio Code - Insiders を使用する必要があります。 code.visualstudio.com LM Studio 側の準備 例えば今話題の Qwen3.5-9B を使いたいときには、まず LM Studio でモデルを DL します…

LM Studio の Model を Visual Studio Code の AI Toolkit に Bring Your Own Model (BYOM) として登録する

Visual Studio Code の AI Toolkit で選択できないローカル LLM を利用したいとき、現状では LM Studio の Model を Bring Your Own Model (BYOM) として登録してしまうのが最も手っ取り早いです。 LM Studio 側の準備 例えば今話題の Qwen3.5-9B を使いたい…

Foundry Local で 標準対応外の onnx モデルを実行する

Foundry Local でいろいろなモデルを利用したのですが、あいにく対応モデルの種類は多くありません。 仕様としては onnx 対応のモデルが公開されていれば Foundry Local で動かせますので(なんでも動くわけではない)、実際に動かしてみます。 ただし、いく…