2026-01-01から1年間の記事一覧
ローカル LLM を用いて GitHub Copilot を使いたいと思い、試してみました。 環境 CPU:Core Ultra 155H RAM:64GB IDE:Visual Studio Code Insiders 検証結果 FoundryLocal GitHub Copilot のモデルピッカーに表示させるのは簡単です。 表示させたいモデル…
GitHub Copilot で LM Studio のローカルモデルを使用するには、Visual Studio Code - Insiders を使用する必要があります。 code.visualstudio.com LM Studio 側の準備 例えば今話題の Qwen3.5-9B を使いたいときには、まず LM Studio でモデルを DL します…
Visual Studio Code の AI Toolkit で選択できないローカル LLM を利用したいとき、現状では LM Studio の Model を Bring Your Own Model (BYOM) として登録してしまうのが最も手っ取り早いです。 LM Studio 側の準備 例えば今話題の Qwen3.5-9B を使いたい…
Foundry Local でいろいろなモデルを利用したのですが、あいにく対応モデルの種類は多くありません。 仕様としては onnx 対応のモデルが公開されていれば Foundry Local で動かせますので(なんでも動くわけではない)、実際に動かしてみます。 ただし、いく…