【狂気】2500W電源!RTX Pro 6000を2枚刺しした「LLMモンスターPC」が爆誕!個人で2350億パラメータモデルを爆速実行する変態リグの全貌!

【狂気】2500W電源!RTX Pro 6000を2枚刺しした「LLMモンスターPC」が爆誕!個人で2350億パラメータモデルを爆速実行する変態リグの全貌!

AI時代、大規模言語モデル(LLM)を快適に動かすためには、一体どれほどのPCスペックが必要なのか?YouTubeチャンネル「」のAlexは、その問いへの答えとして、2500Wという超高出力電源と複数のRTX Pro 6000 GPUを搭載した、まさに「LLMモンスターPC」とも呼ぶべきマシンを自作しました。彼が構築したこの変態リグは、個人で2350億パラメータモデルを爆速実行するという、常識外れのパフォーマンスを叩き出したのです。今回は、その構築の全貌と、AI時代における自作PCの新たな可能性に迫ります。

LLM実行環境の課題:GPUと電源の限界に挑む

Alexは以前、RTX Pro 6000を1枚しか搭載できないAIリグを使っていましたが、より大規模なLLMを実行するには限界を感じていました。そこで彼が計画したのは、Threadripper TRXボード、Ryzen Threadripper 9970X、そして2枚のRTX Pro 6000 GPUを搭載するという、文字通りモンスター級の構成です。しかし、この組み合わせは途方もない電力を消費するため、2500W電源ユニットの導入が必須となりました。

電源の選択肢として、彼は二つのアプローチを検討しました。一つは、負荷を分割し、1つの電源でCPUと1枚のGPU、もう1つの電源で残りのGPUを賄う「デュアルPSU構成」。もう一つは、全てを2500W電源1つに集約する方法です。しかし、2500W電源は特殊な高電圧プラグを必要とし、一般的な家庭用コンセント(上限1800W)では限界があるため、オフィス配線の限界を考慮し、デュアルPSU構成に傾きました。Micro Centerの店員Dan氏との相談では、電源効率の重要性も議論されました。効率の良いPSUは熱の発生を抑え、より多くの電力をシステムに供給できるため、高性能なAIリグにはチタン認証(95%効率)のPSUが望ましいという結論に至りました。

未来的な高性能PCが、高度な技術研究室やホームオフィスに誇らしく展示されている。光り輝くRTX Pro 6000 GPUと巨大な2500W電源を搭載。複雑なデジタルデータストリームがGPU間を流れ、巨大なLLM(例:「Quen 3 235B」)が高速処理されている様子がホログラフィックディスプレイに表示されている。

ケース選びのジレンマ:巨大化するAIリグの収容問題

2枚のRTX Pro 6000と巨大な電源ユニットを収めるには、もはや小型ケースは選択肢になりません。Dan氏は、Alex氏の求める構成には「skyscraper sized full tower section(摩天楼のようなフルタワーケース)」が必須だとアドバイス。Micro Centerを巡る中で、Alex氏は限定版Doomアートのケース(世界に1666台しかない)に心を奪われます。このケースは小さなOLEDスクリーン付きで、GPU使用状況やメモリ使用状況を表示できるという魅力的な機能も備えていました。しかし、実際に購入したケースは巨大で非常に重く、オフィスへの搬入と設置にはかなりの苦労を伴ったようです。「ケースよりも重い」という声も聞かれるほどで、その巨体はオフィス環境に収めるのにも一苦労でした。

冷却と静音性へのこだわり:ファンとUPSの選択

高性能PCには強力な冷却が不可欠ですが、Alex氏は静音性にもこだわりました。Noctuaファンがその性能と静音性で高く評価されていることを確認し、複数のNoctuaファンを導入。さらに、LLMワークフローの実行中に電力供給が途切れることを防ぐため、巨大なバッテリーを搭載したUPS(無停電電源装置)も導入しました。900Wを超えるPCには高価なUPSが不可欠であり、このUPSもまた非常に重く、「ケースよりも重い」との声が上がるほどでした。

LLMモンスターPC、起動!2350億パラメータモデルを個人で実行

Alex氏にとって、これは初めてのThreadripperビルドであり、複数の10,000ドルGPUを搭載する初の試みでした。緊張の中、まずはRTX 5060をテストで搭載し、無事起動。その後、最終的に1枚のRTX Pro 6000から始まり、2枚のRTX Pro 6000を搭載した構成が完成しました。そして、いよいよ彼のモンスターPCの真価が問われる時が来ました。142GBをディスク上に占める巨大なQuen 3 235Bモデル(2350億パラメータ)を、Ollamaというツールを使って実行したのです。通常のRTX 4090や5090などでは到底実行できないモデルです。

Ollamaは、モデルがGPU1枚に収まらないと判断すると、自動的に複数のGPUにモデルを分割して利用する機能を備えており、各GPUのメモリ使用率は約75%で、見事に負荷が分散されました。実行結果は驚異的で、生成速度は68トークン/秒という、2350億パラメータという巨大モデルとしては非常に高速なパフォーマンスを叩き出しました。動画内で、AIがストーリーを生成する様子が描写されており、その思考速度と生成速度の速さに、Alex氏も興奮を隠せない様子でした。

AI時代における自作PCの未来

このモンスターPCは、AI開発者や研究者にとって、個人環境で大規模LLMを動かす可能性を示唆しています。一方で、その構築には莫大なコストと専門知識が必要であり、誰もが手軽に組めるわけではありません。しかし、AIの進化が加速する中で、個人レベルでこのような高性能なAI実行環境を構築できることは、新たなイノベーションの可能性を秘めています。このモンスターPCは、AI時代における自作PCの新たな方向性を示す、変態的でありながらも非常に魅力的な挑戦と言えるでしょう。

AIの所感

YouTubeチャンネル「」のAlex氏が構築した「LLMモンスターPC」は、AI時代における自作PCの可能性と課題を鮮やかに浮き彫りにしています。RTX Pro 6000を2枚刺しし、2500W電源で駆動するという常識外れの構成は、大規模言語モデルを個人レベルで実行するための途方もないハードウェア要件を示しています。特に2350億パラメータもの巨大モデルを高速実行できるというパフォーマンスは、AI研究者や開発者にとって夢のような環境であり、個人レベルでのAIイノベーションを加速させる可能性を秘めているでしょう。

しかし、この構築が示すのは、AIの進化がハードウェアにもたらす極端な要求でもあります。途方もない電力消費、巨大な冷却機構、そしてそれに伴う莫大なコストは、AI時代における「パーソナルなAI環境」を構築するための新たな壁を提示しています。Ollamaのように複数のGPUを効率的に活用するソフトウェアの進化は、この壁を乗り越える一助となりますが、それでもGPUや電源ユニットにかかる費用は、多くのユーザーにとって手の届かない領域です。このモンスターPCは、AI時代における自作PCが、単なるゲーミングPCの延長線上ではなく、特定の目的のために極限まで最適化された「変態マシン」へと進化していく方向性を示していると言えるでしょう。AIの力を最大限に引き出すためには、ハードウェアの限界に挑み続ける探究心と、それを実現するための潤沢な資金が必要になるという、AI時代の自作PCの厳しくも魅力的な現実をまざまざと見せつけられた思いです。

-パソコン

WP Twitter Auto Publish Powered By : XYZScripts.com