個人的なメモ

Tomohiro Suzuki @hiro128_777 のブログです。Microsoft MVP for Developer Technologies 2017- 本ブログと所属組織の公式見解は関係ございません。

2026年3月に Windows で ローカル LLM を用いて GitHub Copilot を使うには

ローカル LLM を用いて GitHub Copilot を使いたいと思い、試してみました。

環境

CPU:Core Ultra 155H
RAM:64GB
IDE:Visual Studio Code Insiders  
 

検証結果

FoundryLocal

GitHub Copilot のモデルピッカーに表示させるのは簡単です。 表示させたいモデルの目のアイコンをクリックして斜線がない状態にすればいいだけです。

実行するとクライアントパラメーターのエラーになります
 
 

LM Studio

実行すると LM Stusdio で処理は動いているが、Visual Studio コードにレスポンスが戻りません。

Ollama

正常にレスポンスが返りましたが、10分以上待たされるので実用は厳しいです。  
 

結論

FoundryLocal LM Studio Ollama
モデルピッカーのサポート
Visual Studio Code
モデルピッカーのサポート
Visual Studio Code Insiders
利用モデル qwen2.5-coder-7b qwen3.5-9B qwen3.5-9B
Agent Mode で正常に使えるか クライアントパラメータのエラーで
正常動作せず
LM Stusdio で処理は動いているが、
Visual Studio Code にレスポンスが戻らない
正常動作する
速度 - - 恐ろしく遅い
(1プロンプト処理に10分以上)

 
 
今のところ、Ollama を使うのがベストですが、Windows だと Intel Arc (OpenVINO)のアクセラレートが効きません。よって CPU での推論になり、恐ろしく遅いです。
Mac であれば、GPU のアクセラレートが効きます。その他の要素を鑑みても一番ベストなのは、MacBook Pro M5 Max 128GB で Ollama を使うことと言えます。検証したいのですが、100万近い MacBook Pro M5 を買う勇気も費用もありませんがいつか試してみたいです。