top of page

NVIDIAの城壁は崩れるか?──AI半導体をめぐる「三つ巴」の攻防戦




シリーズ: 行雲流水


AIの進化が加速するなか、その心臓部を担う半導体の世界で、静かな、しかし巨大な地殻変動が起きています。「CUDA」という独自のソフトウェア基盤で開発者を囲い込み、圧倒的な支配力を誇るNVIDIA。その牙城に挑むのは、あえて囲い込みを避け「オープンな標準」で連合軍を組織しようとするBroadcom。そして両者の狭間で、独自の生存戦略を模索するクラウド企業やデバイスメーカーたち。


この三つ巴の攻防は、単なる企業間競争を超えて、AIが「誰のもの」になるのかという問いを私たちに突きつけます。巨大IT企業のデータセンターに集中するのか、それとも私たちの手元のスマートフォンやパソコンに分散していくのか。その答えは、今まさに形作られつつあります。


富良野とPhronaが、この複雑な勢力図を読み解きながら、10年後、15年後の未来を見通そうとします。技術の話でありながら、その底流には「標準とは何か」「支配と自由のバランス」という、より普遍的な問いが流れています。




なぜBroadcomは「CUDA」を作らないのか


富良野:今日は半導体の話をしたいんですが、いきなり本題に入ると、NVIDIAとBroadcomって、同じ半導体企業でも全然違うビジネスモデルなんですよね。


Phrona:NVIDIAはAIといえばこの会社、みたいなイメージが強いですけど、Broadcomはあまり一般には知られていない気がします。でも時価総額では世界有数の会社ですよね。


富良野:そうなんです。で、よく聞かれるのが、BroadcomもNVIDIAみたいに独自のソフトウェア基盤を作って開発者を囲い込めばいいじゃないか、という話。CUDAに対抗するような何かを。


Phrona:でも、そうしていない。


富良野:していないというか、戦略的にそこを狙っていないんですよね。NVIDIAのGPUって、基本的には「汎用」なんです。どんな計算にも使える万能選手。だからこそ、その万能選手を使いこなすための共通言語としてCUDAが必要だった。


Phrona:なるほど。共通言語があれば、開発者はNVIDIAのGPUさえあればどこでも同じコードが動く、と。


富良野:そう。一方でBroadcomは、GoogleやMetaのような巨大企業と一緒に「あなた専用のチップ」を作るビジネス。ASIC、Application Specific Integrated Circuit、つまり特定用途向けの集積回路ですね。顧客ごとに仕様が違うから、共通の開発基盤を作る意味が薄い。


Phrona:オーダーメイドのスーツ屋さんが、既製服の販売員向けマニュアルを書いても仕方ない、みたいな。


富良野:うまい例えですね。まさにそういうことです。



「オープン標準」という賭け


Phrona:ただ、歴史を振り返ると、オープンな標準って負けがちじゃないですか。WindowsがPC市場を制覇したとき、Unixは押しやられた。iPhoneがSymbianを駆逐した。囲い込みの方が強いというのが、なんとなくの定説のような。


富良野:鋭いところを突きますね。確かに、オープン標準には弱点がある。合議制だから進化が遅い、責任の所在が曖昧になりやすい、特定のハードウェアに最適化しにくい。


Phrona:それでもBroadcomはオープン寄りの立場を取っている。


富良野:取っているんですが、今回は過去とちょっと事情が違うんですよ。買い手、つまりお客さんが異常に強い。Google、Amazon、Meta、Microsoft。世界で最も資本力と技術力を持つ企業群が、一致団結して「NVIDIAの一人勝ちは困る」と言っている。


Phrona:囲い込まれる側が、囲い込みを拒否する力を持っている、と。


富良野:そうです。彼らは自分たちでチップを設計する能力すら持っている。GoogleのTPUなんかはその代表例ですね。彼らが欲しいのは、新しい囲い込みではなくて、自分たちのチップ同士を効率よく繋ぐための「共通の道路」なんです。


Phrona:道路を作る側にBroadcomがいる。


富良野:イーサネットとか、UALinkという相互接続の規格を推進している。NVIDIAの独自規格であるNVLinkに対抗する形で、「みんなで使える道路」を整備しようとしている。



物理層という「見えない城壁」


Phrona:でも、オープンと言いながら、結局Broadcomが得をする仕組みになっているんじゃないですか。


富良野:そこは本当に面白いところで、Broadcomはソフトウェアではなく「物理層」で実質的な支配を狙っているんですよね。SerDesと呼ばれる高速通信技術とか、超高速スイッチとか。


Phrona:ソフトウェアの囲い込みは見えやすいけど、ハードウェアの、しかもチップとチップを繋ぐ部分の技術って、一般人には見えにくい。


富良野:見えにくいけど、逃げられない。表向きはオープンな規格なんだけど、その規格に準拠した製品を作ろうとすると、結局Broadcomの技術が最も効率よく動く。デファクトスタンダード、事実上の標準というやつですね。


Phrona:城壁の位置が変わっただけで、城壁自体は存在する。


富良野:そう言えるかもしれません。ただ、城壁の高さや性質は違う。CUDAは開発者を離さない「粘着性」がある。一度CUDAで書いたコードは、他の環境に移すのが大変。でも物理層の優位性は、技術が追いつけば突破される可能性がある。


Phrona:時間軸が違う、ということですね。



ハイパースケーラーの「冷たい同盟」


富良野:ここで面白いのは、ハイパースケーラーたちがBroadcomと組みながら、同時にBroadcomにも支配されないよう動いていることなんです。


Phrona:NVIDIAから逃げるためにBroadcomと手を組むけど、Broadcomにも首根っこを掴まれたくない。


富良野:だから彼らはMarvellのような競合にも発注を分散させている。「Broadcomの条件が高ければMarvellに切り替えるぞ」という選択肢を常に持っておく。


Phrona:保険をかけているんですね。


富良野:それだけじゃない。チップ設計の核心部分は自社で握ろうとしている。難しい部分、たとえば高速通信のIPだけBroadcomから借りて、計算ロジックは自前。


Phrona:依存を限定的にする。


富良野:そして最も重要なのが、ソフトウェアによる抽象化です。PyTorchやJAXといったフレームワークを進化させて、下のハードウェアがNVIDIAだろうがBroadcom製だろうが関係なく動くようにする。


Phrona:ハードウェアを「交換可能なパーツ」にしてしまう。


富良野:そうすれば、どのベンダーにも依存しなくて済む。まあ、言うは易く行うは難しですが、彼らにはそれをやる資金も人材もある。



CoreWeave——NVIDIAの「尖兵」


Phrona:ところで、CoreWeaveという会社の名前を最近よく聞くんですが。


富良野:面白い会社ですよね。NVIDIAのGPUに特化したクラウドサービスを提供している。


Phrona:AWSやGoogle Cloudの競合?


富良野:競合というより、補完的な存在かもしれません。ハイパースケーラーが自社チップへシフトしていくなか、NVIDIAにとってCoreWeaveは「最新GPUを市場に届けるチャネル」として機能している。


Phrona:NVIDIAの立場からすると、大口顧客が離れていくなら、別の販路を育てたい。


富良野:そうです。CoreWeaveはNVIDIAの技術を100%引き出す構成に特化しているので、「本物のNVIDIA環境が欲しいならうちに来い」と言える。


Phrona:ハイパースケーラーの囲い込みを嫌う企業にとっては、逃げ場にもなる。


富良野:OpenAIなんかがその例ですね。特定の巨大IT企業の戦略に縛られたくない企業にとって、CoreWeaveは独立性を保つ選択肢になっている。


Phrona:でも、それはNVIDIA依存という別の形の囲い込みでは?


富良野:その通りです。CoreWeaveが伸びれば伸びるほど、「わざわざ自社でASICを開発しなくても、CoreWeaveでNVIDIAを借りればいい」という流れが残る。Broadcomにとっては、これはASIC化を遅らせる障壁になる。



10年後の風景——「学習」から「推論」へ


Phrona:ここまでの話は現在進行形の競争ですけど、10年後、15年後はどうなっているんでしょう。


富良野:大きな構造変化として言われているのが、AIの需要が「学習」から「推論」にシフトするということですね。


Phrona:学習と推論の違いを、簡単に説明してもらえますか。


富良野:学習は、AIモデルを育てる段階。膨大なデータを食わせて、パターンを覚えさせる。これには途方もない計算力が必要で、今は数千億円規模の投資が動いている。


Phrona:巨大なデータセンターでやる作業。


富良野:そう。でも一度モデルが完成すれば、あとはそれを「使う」だけ。これが推論です。あなたがChatGPTに質問したとき、裏で動いているのは推論。


Phrona:学習は一回やればいいけど、推論は使うたびに発生する。


富良野:まさに。10年後には、学習済みのモデルを生活のあらゆる場面で動かす「推論」が需要の大部分を占めると言われています。そうなると、NVIDIAの高性能で高価なGPUより、安くて電力効率の良い専用チップが有利になる。


Phrona:Broadcomの出番、ということですか。


富良野:BroadcomやQualcommのような、省電力チップを作れる会社の強みが活きてくる。ダンプカーでコンビニに買い物に行く必要はないわけで。



エッジへの回帰——AIは誰のものか


Phrona:もう一つ、エッジという言葉もよく出てきますね。


富良野:端末、デバイス側でAIを動かすということです。今はクラウドに問い合わせて答えが返ってくる形が主流ですが、これがスマートフォンやパソコンの中で完結するようになる。


Phrona:なぜそうなると言われているんですか。


富良野:三つの壁があるんです。一つ目はプライバシー。AIが「あなたのメールを読み、銀行残高を確認し、キーボード入力を監視して仕事を代行する」存在になったとき、その全データをクラウドに送ることを許容できますか。


Phrona:それは……かなり抵抗がありますね。


富良野:二つ目は経済性。世界中の全人類が24時間365日AIをクラウドで動かし続けたら、世界の電力とデータセンターがパンクする。自分のデバイスの電気とチップで処理させる「地産地消」が経済的に不可欠。


Phrona:三つ目は?


富良野:遅延です。PCの操作代行や自動運転のように、コンマ数秒の遅れが許されないタスクでは、通信環境に依存するクラウドは使えない。

Phrona:そうなると、AppleやQualcommの立場が強くなる。


富良野:Appleはプライバシーを武器に、オンデバイスAIを推進している。Qualcommは非Apple陣営にAI性能を配る役割。彼らにとって、エッジAIへのシフトは「デバイスを買い替えさせる最強の理由」になる。



「司令塔」と「実行部隊」の分離


Phrona:でも、全部がエッジに移るわけではない?


富良野:そうですね。おそらく「ハイブリッド」に落ち着く。手元のデバイスが「今、何をすべきか」を判断し、プライバシー情報を扱う。重い計算や最新情報の検索が必要なときだけ、クラウドに外注する。


Phrona:司令塔はエッジ、実行部隊はクラウド。


富良野:そうなると、ユーザーに最も近いデバイスを握るApple、安価なインフラを提供するBroadcomが利益を安定して吸い上げる。高価な汎用GPUのNVIDIAは、学習や超高度な研究開発というニッチに押し込められるリスクがある。


Phrona:NVIDIAにとっては厳しいシナリオですね。


富良野:だからこそNVIDIAは、単なる「チップ屋」からの脱却を図っている。ロボティクスや自動運転を動かすためのソフトウェア基盤、いわば「AIのOS」を握ろうとしている。



ソブリンAI——国家という新しい買い手


Phrona:もう一つ気になるのが、国家の存在です。


富良野:ソブリンAI、国家によるAIインフラの構築ですね。データ主権の観点から、米国企業のクラウドに頼らない「国産AIインフラ」を各国が作りたがっている。


Phrona:エネルギーや水道のような公共インフラと同じ扱い。


富良野:そうです。サウジアラビア、UAE、欧州、アジア諸国が、自国内に巨大AIセンターを建設する動きがある。これはハイパースケーラーの購買力を相対的に弱める。


Phrona:Broadcomにとっては追い風?


富良野:各国が「自国専用チップ」を作りたいと考えたとき、設計支援を行うBroadcomのような企業には商機がある。NVIDIAも、国家レベルのセキュリティ要件を満たす製品で対応しようとしている。



問いを残して


Phrona:結局、15年後に「AIの通行料」を最も多く取れるのは誰なんでしょう。


富良野:正直、断言は難しいですね。ただ、一つ言えるのは、AIモデルそのものの価値は下がっていくだろうということ。オープンソースのモデルが進化し続ければ、高価な独占的モデルの優位性は薄れる。


Phrona:価値が移動する。


富良野:「AIをどこで、いかに安く、安全に動かすか」という物理層の戦いになる。その意味で、ソフトウェアの囲い込みより、物理的な接続規格を押さえるBroadcomや、ユーザー接点を握るAppleの方が、長期的な防衛線として機能するかもしれない。


Phrona:でも、それも一つのシナリオに過ぎない。


富良野:そうです。NVIDIAがロボティクスのOSを握れば、物理世界全体を支配する可能性だってある。CoreWeaveがAI時代の「電力会社」のようなインフラ企業に化けるシナリオもある。


Phrona:不確実性の中で、それぞれが賭けをしている。


富良野:その賭けの結果が、AIが「誰のもの」になるかを決める。巨大企業のデータセンターに閉じ込められるのか、私たちの手元に戻ってくるのか。技術の話でありながら、本質的には権力の分散と集中の話なんですよね。




ポイント整理


  • NVIDIAとBroadcomはビジネスモデルが根本的に異なる。NVIDIAは汎用GPUとCUDAによる開発者囲い込み戦略を取り、Broadcomは特定顧客向けのカスタムチップ(ASIC)とオープン標準の推進で主導権を握ろうとしている。

  • 歴史的にオープン標準は独自プラットフォームに負けがちだったが、今回は「買い手」であるハイパースケーラー(Google、Amazon、Meta等)が異常に強く、自ら囲い込みを拒否する力を持っている点が異なる。

  • Broadcomはソフトウェアではなく物理層(SerDes、高速スイッチ等)で実質的な支配を狙っている。表向きはオープンな規格でも、結果的にBroadcom製品が最も効率よく動く「デファクトスタンダード」を形成しようとしている。

  • ハイパースケーラーはBroadcomとの「冷たい同盟」を結びながら、セカンドソース育成(Marvell等への発注分散)、設計IPの自社化、ソフトウェアによるハードウェア抽象化という三つの対抗策でベンダー依存を回避しようとしている。

  • CoreWeaveはNVIDIA GPU特化のクラウドサービスとして、NVIDIAの最新チップを市場に届けるチャネル機能を果たすと同時に、ハイパースケーラーの囲い込みを嫌う企業の避難所にもなっている。

  • 長期的にはAI需要が「学習」から「推論」にシフトし、推論はエッジ(端末側)に分散していくと予測される。この変化は省電力チップを強みとするBroadcomやQualcomm、デバイスを握るAppleに有利に働く。

  • プライバシー、経済性(電力消費)、遅延の三つの壁により、エッジAIへのシフトは不可避とされる。最終形態は「司令塔(エッジ)」と「実行部隊(クラウド)」の分離したハイブリッド構造になる可能性が高い。

  • ソブリンAI(国家によるAIインフラ構築)の動きも進んでおり、ハイパースケーラーの独占を切り崩す要因になりうる。各国が自国専用チップを求めることは、カスタム設計支援を行うBroadcomにとって商機となる。

  • 15年後の世界では、AIモデルそのものの価値は下がり、「AIをどこで、いかに安く、安全に動かすか」という物理層の戦いが主戦場になる。NVIDIAが生き残るには、ロボティクスや自動運転を動かす「AIのOS」を握れるかが分岐点となる。



キーワード解説


CUDA】

NVIDIAが開発したGPU向けの並列計算プラットフォーム。開発者がGPUの性能を引き出すための共通言語として機能し、NVIDIAの強力な囲い込み手段となっている。


ASIC(Application Specific Integrated Circuit)】

特定の用途に特化した集積回路。汎用チップより効率が良いが、用途が限定される。GoogleのTPUやBroadcomが設計支援するカスタムチップがこれにあたる。


SerDes(Serializer/Deserializer)】

データを直列信号と並列信号の間で変換する技術。チップ間の高速通信に不可欠で、Broadcomが強みを持つ領域。


UALink】

AI向けの相互接続規格として策定されているオープン標準。NVIDIAの独自規格NVLinkに対抗する形で、Broadcomを含む複数企業が推進している。


ハイパースケーラー】

Google、Amazon、Meta、Microsoftなど、巨大なデータセンターを運営し、クラウドサービスを提供する超大規模IT企業の総称。


TPU(Tensor Processing Unit)】

Googleが開発したAI専用チップ。機械学習の計算に特化した設計で、Broadcomとの協業で製造されている。


推論(Inference)】

学習済みのAIモデルを使って実際の入力に対して出力を生成する処理。学習より計算負荷は軽いが、利用頻度が高いため総需要は大きくなる。


エッジAI】

クラウドではなく、スマートフォンやPC、IoT機器など端末側でAI処理を行うこと。プライバシー保護、低遅延、省電力の観点から注目されている。


デファクトスタンダード】

公的に定められた規格ではないが、市場での普及により事実上の標準となっているもの。Broadcomが物理層で狙っている立場。


ソブリンAI】

各国政府が自国のデータ主権を守るために構築する国産AIインフラ。米国企業のクラウドに依存しない自律的なAI基盤を目指す動き。


NPU(Neural Processing Unit)】

AIの推論処理に特化したプロセッサ。QualcommやAppleのチップに搭載され、省電力でAI処理を行う。



本記事と同じ内容は、noteにも掲載しております。
ご関心を持っていただけましたら、note上でご感想などお聞かせいただけると幸いです。

bottom of page