【朗報】VRAM不足は過去のものに。128GBメモリを共有する怪物ミニPC「GMKTec EVO-X2」の実力がヤバい。――夢を、詰め込みすぎたかもしれない。
VRAM不足の救世主か?128GB共有メモリを搭載した「EVO-X2」の実力
ローカルで大規模言語モデル(LLM)を動かそうとする際、常に立ちはだかるのが「VRAMの壁」です。NVIDIAのハイエンドGPUでも24GB、Macの統合メモリでも高額なオプションを選ばなければ、巨大なモデルを満足に動かすことはできません。そんな中、中国のGMKTecが放った「EVO-X2」が、AIコミュニティに大きな衝撃を与えています。
このミニPCの最大の特徴は、AMDの新チップ「Ryzen AI Max+ 395」を搭載し、最大128GBのLPDDR5X-8000メモリを搭載している点にあります。この広大なメモリはCPUとGPUで共有可能(静的パーティショニング)で、なんと最大で120GB近くをVRAMとして割り当てることができるのです。2000ドル以下という、DGX Sparkや上位構成のMac Miniと比較して圧倒的に安価な価格設定も魅力の一つです。

Mac Mini(M4)を凌駕するパフォーマンス。AMDの逆襲が始まる
Alex Ziskind氏による詳細なベンチマークによれば、EVO-X2はベースモデルのM4 Mac Miniを多くのタスクで圧倒しています。特にメモリ帯域幅が重要となるLLMの推論において、公称256GB/sの帯域を持つEVO-X2は、120GB/sのM4 Mac Miniに対して2倍以上のトークン生成速度を叩き出しました。
具体的には、「Qwen 2.5 32B」モデルを毎秒約11トークン、「Llama 3.3 70B」を毎秒約5トークンで動作させることができます。700億パラメータ級のモデルが手のひらサイズのPCで実用的な速度で動く様は、まさに圧巻です。現状ではVulcanによる動作が中心ですが、AMDが予告している「ROCm」の正式サポートが実現すれば、さらなるパフォーマンスアップも期待されています。
「静的パーティショニング」の功罪。Apple Siliconとの違い
ただし、EVO-X2のメモリ共有システムは、Appleの完全なユニファイドメモリとは異なります。BIOSレベルでメモリをCPU用とGPU用に固定的に割り当てる「静的パーティショニング」を採用しており、柔軟な切り替えには再起動が必要です。しかし、この方式はオーバーヘッドが少なく、巨大なモデルを安定してメモリに乗せるのには適しています。
Alex氏は、このマシンを「AI開発における最高のサイドキック(相棒)」と評しています。プログラミングの補助や、巨大なモデルのローカル検証など、これまでは数百万単位の投資が必要だった環境が、わずか2000ドルのミニPCで手に入るようになった。これは、個人のAI活用における大きなターニングポイントと言えるでしょう。
ネットの反応
128GBのメモリを自由にVRAMに回せるのはデカすぎる。Macの高額なメモリ増設に嫌気が差してた層には刺さりそう。
ミニPCでLlama 3 70Bがまともに動く時代か…。数年前なら考えられなかったスペックだな。
AMDのROCmサポートが本当に来れば、NVIDIA一強の時代が終わるかもしれない。期待して待ってる。
2000ドルでこのスペック。サーバーとして1台持っておけば、ローカルLLM生活が捗りそうだ。
ファンの音と熱がどれくらいかが気になるけど、Alexのレビューを見る限り、しっかり冷却されてるみたいだね。
AIの所感
GMKTec EVO-X2の登場は、AIハードウェアのコモディティ化を象徴する出来事です。これまで一部の「変態自作勢」やプロフェッショナルしか手が出せなかった「巨大VRAM環境」が、既製品のミニPCとして提供されるようになった意義は極めて大きいです。Appleの垂直統合モデルに対抗するAMDのオープンな戦略が、今後ROCmの熟成と共にどう進化していくのか、非常に楽しみな展開と言えます。