導入 — 2026年、ノートPC1台でAI駆動ゲーム開発が現実になりつつある
2026年のいま、ローカルLLMを常駐させながらUnityでゲームを作る、という話はもう実験ではありません。特にApple Siliconの上位機、なかでもM5 Maxを積んだMacBook Proは、ノートPCでありながら「大きめのモデルをローカルで回しつつ、開発ツールも同時に動かす」現実的な構成に入っています。Apple自身もM5 Maxを、3D制作者・アプリ開発者・AI研究者向けのワークロードとして位置付けており、LLMのトークン生成のような用途まで明示しています。
2年前なら、ローカルで強めのモデルを動かしてゲーム開発まで同時にやるには、RTX 4090級のデスクトップとクラウドAPIの併用が前提でした。今は違います。M5 Max 128GBのような構成なら、ローカルLLM、Unity、場合によってはBlenderまで1台で抱えられます。これは開発スタイルそのものを変える話です。
この記事の結論(先に言います)
ローカルLLMでUnity開発は「かなりできる」。C#スクリプト、シーンYAML、Prefab——Unityプロジェクトの大半はテキストファイルであり、LLMが直接読み書きできる。M5 Max 128GBなら、LLM常駐+Unity同時起動が余裕で成立する。完全自律はまだ先だが、「AIが常駐する開発環境」はノートPC1台で現実になった。
M5 MacBook Proのスペック
M5 Maxの要点はシンプルです。18コアCPU、最大40コアGPU、最大128GBのユニファイドメモリ、そして最大614GB/sのメモリ帯域。この「大容量メモリ」と「高帯域」が、ローカルLLM用途ではそのまま効きます。
重要なのは、Apple Siliconのユニファイドメモリです。通常のWindows PCでは、システムRAMとGPUのVRAMが分かれており、ローカルLLMではまずVRAM容量がボトルネックになります。たとえばRTX 4090は非常に速いGPUですが、VRAMは24GBです。7B〜14B級なら快適でも、70B級や長いコンテキストを使うと、容量の壁にすぐ当たります。一方、M5 MaxではCPU・GPUが同じメモリプールを共有するため、「GPUメモリ不足だから載らない」という制約がかなり薄くなります。
| 項目 | M5 Pro | M5 Max |
|---|---|---|
| CPU | 最大18コア | 最大18コア |
| GPU | 最大20コア | 最大40コア |
| ユニファイドメモリ | 最大64GB | 最大128GB |
| メモリ帯域 | 307GB/s | 最大614GB/s |
| 価格 | $2,199〜 | $2,699〜 |
ローカルLLMの現状(2026年3月)
Qwen 3.5系は、2026年2月に27Bや35B-A3Bなどの主要サイズが公開され、Apple SiliconではMLX系ツールチェーンでの運用がかなり現実的になっています。
MLXが強い理由は、Apple Silicon専用に設計されていて、ユニファイドメモリとMetalを前提にゼロコピー寄りの実行ができることです。MLX最適化ビルドは同一ハードウェア上のOllamaベースラインより約2倍のトークン生成速度を出し、メモリ使用量もかなり少ないという報告があります。
Qwen3.5ラインナップ
| モデル | パラメータ | 特徴 |
|---|---|---|
| Qwen3.5-397B-A17B | 397B(17B active) | フラッグシップMoE |
| Qwen3.5-122B-A10B | 122B(10B active) | 中型MoE |
| Qwen3.5-27B | 27B dense | コーディング本命 |
| Qwen3.5-35B-A3B | 35B(3B active) | 軽量MoE、16GBでも動く |
| Qwen3-Coder-Next | コーディング特化 | SWE-Bench Pro 44.3% |
M5 MaxでのQwen3.5-27B Q4の公式実測はまだ出ていませんが、コミュニティの帯域ベースの見積もりでは50〜70 tok/s前後が妥当です。MoEモデルのQwen3.5-35B-A3Bなら、アクティブパラメータが少ないため70〜100+ tok/sも期待できます。
コーディング用途では、Qwen3-Coder-Nextが特に注目です。SWE-Bench Proで44.3%という数字は、ローカル実行可能なオープンモデルとしてはかなり高い水準です。「既存コードを読み、直し、何度か試して修正する」用途には十分戦えます。
メモリ使用量の目安
| モデル | 量子化 | 必要RAM | M5 Pro 64GB | M5 Max 128GB |
|---|---|---|---|---|
| Qwen3.5-27B | Q4 | 18〜24GB | 余裕あり | 余裕 |
| Qwen3.5-35B-A3B | Q4 | 6〜8GB | 余裕 | 余裕 |
| Qwen3.5-122B-A10B | Q4 | 20〜28GB | ギリギリ | 余裕 |
| 70Bクラス | Q4 | 40〜48GB | 厳しい | 余裕 |
核心:LLMはUnityプロジェクトファイルを直接いじれる
本質はここです。LLMは「Unity Editorを操作しないと何もできない」わけではありません。Unityプロジェクトのかなりの部分は、実はテキストファイルです。
- C#スクリプト — 完全なテキストファイル。LLMが最も得意な領域
- .unityシーンファイル — テキストシリアライズを有効にしていればYAML形式
- .prefabファイル — 同じくYAML形式
- .metaファイル — アセットのGUIDやインポート設定を含むYAML
つまり、AIはC#だけでなく、シーンやPrefabも「読む」ことができます。GUIの奥に閉じ込められたバイナリではありません。ファイルとして見えている以上、LLMは差分を理解し、直接修正できます。
さらにUnityは、外部で変更されたアセットやスクリプトを検知して自動的にAsset Databaseを更新します。LLMがファイルを書き換える → 保存する → Unityが検知して再コンパイル、という流れは普通に成立します。
// LLMに書かせたPlayerController.cs
using UnityEngine;
public class PlayerController : MonoBehaviour
{
[SerializeField] private float speed = 5f;
void Update()
{
float x = Input.GetAxisRaw("Horizontal");
float y = Input.GetAxisRaw("Vertical");
Vector3 dir = new Vector3(x, 0f, y).normalized;
transform.position += dir * speed * Time.deltaTime;
}
}
このファイルをLLMが直接保存すれば、Unity側は普通に再読み込みします。OpenClawのUnity PluginのようにEditorをAPIで外から触るアプローチもありますが、実務上はファイル直接編集のほうがシンプルで確実です。余計なレイヤーを挟まないぶん、壊れにくい。
同時実行シミュレーション
ケース1:M5 Pro 64GB(コスパ重視)
Qwen3.5-27B Q4をローカルで回す前提なら、LLMに18〜24GB、残り40GBをUnityに使う構成になります。Unity単体なら十分余裕があります。GodotやRaylib系ならさらに軽い。ローカルLLMを常駐させつつ、C#の修正、ログ要約、コードレビュー、簡単なツール化まではかなり快適に回せます。
ケース2:M5 Max 128GB(フル構成)
これは完全に別世界です。27B Q4を常駐させても、Unity、Rider、ブラウザ、Discord、Blenderまで同時に抱えられます。「LLMを立ち上げると他のツールが死ぬ」状態ではなく、「AIが横にいるのが当たり前」になります。
| 構成 | LLM使用RAM | 残りRAM | 同時実行 |
|---|---|---|---|
| M5 Pro 64GB + 27B Q4 | 〜24GB | 〜40GB | Unity + エディタ |
| M5 Max 128GB + 27B Q4 | 〜24GB | 〜104GB | Unity + Blender + 何でも |
| M5 Max 128GB + 70B Q4 | 〜48GB | 〜80GB | Unity + ブラウザ + ツール |
現時点の限界
とはいえ、限界ははっきりあります。
GUIDとfileID参照
最大の地雷です。Unityはアセットごとに.metaファイルを作り、GUIDやインポート設定、参照情報を持たせます。シーンやPrefabのYAMLをLLMが直接触ること自体は可能ですが、GUIDやfileIDを壊すと参照が飛びます。ここはクラウドLLMでもローカルLLMでも同じリスクです。
Editor依存の操作
アセットインポート設定、ライトベイク、NavMeshベイク、複雑なインスペクタ操作、パッケージ依存のGUI設定は、まだEditor側の作業が必要です。
アート判断
見た目の美しさ、レベルの気持ちよさ、VFXの完成度のようなアート判断は、現時点のLLMには任せにくいです。
Unity特有の知識
Qwen3-Coder-Nextの44.3%はソフトウェア修正ベンチの数字であって、Unity特有のライフサイクル(Awake→OnEnable→Start→Update)やインポーター挙動、Editor拡張の癖まで完璧に理解していることを意味しません。ここはまだクラウドの最上位モデルのほうが強いです。
これが意味すること
それでも意味は大きいです。
- 完全オフライン — ネット接続不要
- 月額0円 — API従量課金なし
- データ漏洩リスク0 — ソースコードや未公開企画を外に出さない
- 常時常駐 — 待ち時間なし、いつでもAIに聞ける
カフェでMacBookを開いて、ローカルQwenにC#を書かせながらUnityを回す。この開発スタイルはもう現実です。2年前は強いGPUデスクトップ、クラウドAPI契約、常時オンライン前提のワークフローが必要でした。いまはノートPC1台で「AIが常駐する開発環境」を作れます。
これは、個人開発者やインディースタジオにとって参入障壁が一段下がったということです。
まとめ
ローカルLLMでUnity開発は、2026年3月時点でかなりできるところまで来ています。
- C#スクリプトの生成・修正は十分実用レベル
- シーンやPrefabのYAMLも条件付きで扱える
- Unityの自動リコンパイルと組み合わせれば、AIが書き→人間が確認するループが成立
- M5 Max 128GBなら、LLM常駐+Unity+Blender同時起動が余裕
ただし、完全自律はまだ先です。GUID参照、インポート設定、アート判断、Unity特有の癖は、まだ人間の監督が必要です。
それでも、M5 Max 128GBは現時点で最もバランスの良いAI開発マシンのひとつであり、「AIが常駐するUnity開発環境」を個人のノートPCで成立させる現実的な選択肢です。
参考ソース
- Qwen3.5 — GitHub
- Apple shows how much faster the M5 runs local LLMs — 9to5Mac
- Exploring LLMs with MLX and the M5 GPU — Apple ML Research
- Installing Qwen 3.5 on Apple Silicon Using MLX — DEV Community
- Qwen3-Coder-Next: The Complete 2026 Guide — DEV Community
- Qwen 3.5 on Mac: MLX Is 2x Faster Than Ollama — InsiderLLM


コメント