ローカル LLM を用いて GitHub Copilot を使いたいと思い、試してみました。
環境
CPU:Core Ultra 155H
RAM:64GB
IDE:Visual Studio Code Insiders
検証結果
FoundryLocal
GitHub Copilot のモデルピッカーに表示させるのは簡単です。
表示させたいモデルの目のアイコンをクリックして斜線がない状態にすればいいだけです。

実行するとクライアントパラメーターのエラーになります

LM Studio
実行すると LM Stusdio で処理は動いているが、Visual Studio コードにレスポンスが戻りません。

Ollama
正常にレスポンスが返りましたが、10分以上待たされるので実用は厳しいです。
結論
| FoundryLocal | LM Studio | Ollama | |
|---|---|---|---|
| モデルピッカーのサポート Visual Studio Code |
〇 | ✖ | 〇 |
| モデルピッカーのサポート Visual Studio Code Insiders |
〇 | 〇 | 〇 |
| 利用モデル | qwen2.5-coder-7b | qwen3.5-9B | qwen3.5-9B |
| Agent Mode で正常に使えるか | クライアントパラメータのエラーで 正常動作せず |
LM Stusdio で処理は動いているが、 Visual Studio Code にレスポンスが戻らない |
正常動作する |
| 速度 | - | - | 恐ろしく遅い (1プロンプト処理に10分以上) |
今のところ、Ollama を使うのがベストですが、Windows だと Intel Arc (OpenVINO)のアクセラレートが効きません。よって CPU での推論になり、恐ろしく遅いです。
Mac であれば、GPU のアクセラレートが効きます。その他の要素を鑑みても一番ベストなのは、MacBook Pro M5 Max 128GB で Ollama を使うことと言えます。検証したいのですが、100万近い MacBook Pro M5 を買う勇気も費用もありませんがいつか試してみたいです。