FIRE: 投資でセミリタイアする九条日記

九条です。資産からの不労所得で経済的独立を手に入れ、自由な生き方を実現するセミリタイア、FIREを実現しました。米国株、優待クロス、クリプト、太陽光、オプションなどなどを行うインデックス投資家で自由主義者、リバタリアン。ロジックとエビデンスを大事に、確率と不確実性を愛しています。

AIエコシステムとAI銘柄を考える

2024年はまさにAIの年でした。そして2025年も引き続きAIの年になるでしょう。このところの株高を牽引しているのもAIで、この流れは当分変わらないと思っています。PCの登場でIntelやMicosoftといったIT企業が巨大化し、インターネットの登場でGoogle、Amazon、Metaなどのビッグテックが誕生しました。そして今、AIの発展によって次世代を担う企業が決まってきます。

AIで伸びるのはどの企業か?

2024年のS&P500は27.35%のリターンでしたが、そこからM7(Apple, Microsoft, Google, Amazon, Nvidia, Meta ,Tesla)を除くと21.2%になります。つまりM7がS&P500を6ポイント押し上げたわけです。中でもその牽引役となったのがNVIDIAでした。M7の過半がAI銘柄であることを考えると、基本的に2024年の株高を牽引したのはAIだったともいえます。

www.kuzyofire.com

この流れは2025年も変わらないでしょう。AIには失速の兆しは見えず、進歩は加速しているだけでなく、AIという要素技術を使って売り上げにつなげる企業も出始めたからです。

AIのエコシステム

AI企業を見極めて投資するには、今のAIがどんなエコシステムになっているのかの概念を持つことが重要でしょう。下記は九条が考えるAIエコシステムの構造です。下の方に行くほど物理的な基盤に近く、上にいくほどアプリケーションになります。

インターネットのときもそうでしたが、こうしたニューテクノロジーはまずインフラ基盤のところが盛り上がります。昔から投資している人なら、ITバブルのときにもっとも注目されたのがルータ最大手のシスコだったことを覚えていると思います。その後、シスコのバブルは弾けましたが、たっぷり投資されたインフラ基盤の上で万年赤字だったインターネット企業が大きく育ちました。AmazonやGoogleです。

 

このように、まずはインフラの需要が大きく伸びてインフラ提供企業の株価も急拡大し、その先にその技術を使った企業が花開くというのが、ニューテクノロジーが世の中に根付くいつものシナリオ。上の図でいえば、まずは上から下の企業にお金が流れ、下の企業から順に大きく業績を伸ばす。そのうちに、だんだん上のほうの企業が収益を出し始めて赤字から脱却し、次の時代の花形になるという流れです。

 

そのため、AIチップをほぼ独占的に提供しているNVIDIAの業績は急拡大し、株価も恐ろしいほどの急騰を続けています。もちろんNVIDIAだけでなく、その周辺の企業も大きく業績を伸ばしたのはご存知の通りです。

AIの構造

ではこの図を元に、AIがどのような形で動いているのかを簡単に見ていきましょう。

AIチップと呼ばれるNVIDIAのGPUを出発点とすると、このGPUは世界で唯一最先端半導体を作れる台湾・TSMCの工場で生産されます。TSMCは最先端半導体を作るにあたりオランダ・ASMLの露光装置が必要です。この2社は最先端半導体を作るにあたり、代替企業のない独占企業です。

 

NVIDIAは数年前からAIにフォーカスしたGPGPUの開発と、並列計算用のプラットフォームCUDAを開発してきました。現在のAI開発はCUDAを使うのは基本であり、だからこそCUDAが動く唯一のGPUであるNVIDIAチップが、AIにおけるチップを寡占しているわけです。

 

もう一つ面白いのはブロードコム(AVGO)です。さまざまな半導体を開発するブロードコムもAI絡みで大きく業績を伸ばしています。一つはネットワークプロセッサです。Jericho3-AI FabricチップとTomahawk 5 Ethernetスイッチチップは、データセンターに流入する膨大なデータを処理するサーバーを動かすのに使われます。これらのチップを介して、数万個のGPUがつなぎ合わされるわけです。

 

そしてブロードコムはカスタムAIチップ(ASIC)も手掛けています。GPUが汎用的な演算ユニットなのに対し、ASICは特定の用途に向けたもので効率が高いことが特徴です。そして、Amazon、Google、MetaなどはNVIDIAのGPUに対抗するAIチップを自前で開発していますが、それらは基本的に用途特化のASICで、ブロードコムに製造委託されています。

 

こうして作られたAIチップをパッケージにしてデータセンターに納品しているのがSupermicroなどのベンダーです。DELL、Lenovo、HPなどもそうで、要するにサーバベンダーだといえるでしょう。AI需要でSupermicroが急騰したのは記憶に新しいですね。

 

そして多くのAIは、こうしたサーバを集めたデータセンターで動かされていますが、その代表例がAmazonのAWS、MicosoftのAzure、GoogelのGoogleCloudといったクラウドです。急拡大している3社のクラウド事業ですが、特にその伸びを牽引しているのがAIで、多くの顧客がクラウドベンダーに大金を払ってAIを利用しています。

 

現在のところ、AIブームによってクラウドベンダーの収益は押し上げられ、クラウドベンダーはサーバベンダーを介して大量のAIチップを発注しており、NVIDIAなどの収益につながっています。

AIモデルのトレンド

そしてクラウド内のGPUで動かされているのが、各社のAIモデルです。有名どころが下記の4つで、それぞれ異なった特徴があります。

  • Anthropic:Claude:Amazonからの投資
  • Meta:Llama:オープンソース
  • OpenAI:GPT、o1、o3:Micosoftからの投資
  • Google:Gemini

いまのところ技術開発競争のトップを走るのがOpenAIだと言われますが、アライメントや文章表現などではClaudeに一日の長があるといわれます。またもっともAGIに近いと評判のo1/o3に対しても、GoogleはGemini 2.0 Flash Thinkingを対抗馬として出しており、性能は拮抗しています。またMetaのLlamaはオープンソースであることが最大の特徴で、多くのモデルがLlamaベースで開発されています。

 

こうしたAIモデルの背景となる考え方は、スケール則です。これはAIモデルを大規模化することで性能が向上するというもの。これが有名な論文「Scaling Laws for Neural Language Models」にかかれているグラフです。

まずComputeは、計算リソースを増やすとAIは賢くなることを示しています。横軸が計算リソース、縦軸がAIの間違え具合です。

 

次にDataset Sizeは、データをたくさん与えるとAIはさらに賢くなるです。横軸はデータセットの量で、縦軸は同じくAIの間違え具合。

 

最後のParametersは、AI自体を大きくすると賢くなるです。横軸はAI自体の容量や複雑さを表す数値でパラメータと呼ばれます。縦軸は同じくAIの間違え具合。

 

AIの発展はこのスケール則に従ってきました。これはすごいことで、要するに計算リソースをどんどん増やして、データをもっと与えて、AIモデルを大きくすれば、AIは賢くなることを示しているからです。技術的なブレイクスルーが必要なのではなく、とにかくGPUをたくさん用意して投入すればAIは賢くなる。つまりNVIDAチップをどれだけ多く押さえられるかがAI競争の決め手となるわけです。

 

とはいえ、このスケール則において横軸が対数であることに注意が必要です。そして縦軸は対数ではありません。つまりリソースの投入に対して性能向上は鈍化していき、わずかな性能アップのために従来の10倍、100倍の演算資源が必要になるわけです。ここがAIが金食い虫、そして電力食い虫である所以です。だからAIチップの速度はいくらでも要求され、合わせて大量の電力も必要とされるわけです。

 

ただ2024年はこのトレンドにちょっとした変化がありました。これまではスケール則は主に学習側で効いていたものだったのですが、それが推論側に移ったのです。AIモデルは、大量のデータを学習させて作られます。これが学習側。次にそのAIモデルを使って出力を出します。これが推論側です。

 

OpenAIのo1のブレイクスルーは、AIが複雑な問題を解く際に、人間のように思考のステップを踏む仕組みであるChain of Thouthtを盛り込んだことでした。o1-proなどを使えば分かりますが、複数回の推論を繰り返し行うことで回答性能を上げており、その代わりに長時間(1分くらいはザラ!)の思考時間がかかります。つまり推論側の演算を増やせばAI性能はまだ上げられる。これがo1が達成したブレイクスルーだったわけです。

www.kuzyofire.com

これが意味するのは、NVIDIAへの需要はまだまだ続くということ。そしてASICベースの競合チップへの期待も大きいということです。例えば推論特化のAIチップGroqはGPUに対してLPUと呼ばれ、爆速をウリにしています。

また学習用AIチップを開発するスタートアップのCelebrasは、1チップに4兆個のトランジスタを搭載した巨大チップで「世界最速AIチップ」をうたっています。複数のチップを接続し高速メモリ(HBM)をつなげるのが現在のAIチップの主な構成ですが、全部1チップに載せてしまえば速いよね?という感じ。

 

一辺が21.5cmの正方形チップは、世界最大サイズのチップです。というか、発想はともかく、よくこんなサイズのチップを製造できたものだと思います。

AIエージェントが売り上げにつながる日

最後はAIエコシステムの最上位、アプリケーションについて見ていきます。ここではS

aaSを挙げましたが、ChatGPTのようなサービスもアプリケーションです。要は直接顧客からお金を取れるものです。

現在のAIは、AIモデルから下が注目されていて、株価もそこを中心に反応していますが、最終的に大化けするのはこのアプリケーション層になるでしょう。インターネットにおいて、ケーブル会社でもルータ会社でもISPでもなく、その上アプリケーションを提供する企業が覇権を取ったのと同じです。

 

ただ現時点ではどの企業が強くなるかは分かりません。要はB2BであれB2Cであれ、顧客がお金を払ってもいいと思えるサービスを作れるかどうかです。

 

ここには大きく2つの形があります。Salesforceのように水平分業の中、アプリケーションにフォーカスするタイプの企業と、GoogleのようにクラウドからAIモデル、アプリケーションまですべて自前で用意できる垂直統合型の企業です。現在のところどちらが有利とは言い切れませんが、Googleのユニークさが光ります。

 

このアプリケーション層で注目される企業の一つがSalesforceです。同社は9月にAI新戦略を発表し、エージェント型のAI「エージェントフォース」の提供を始めました。会話一回につき2ドルの料金を課すといいます。

同社はカスタマーサービスや営業会議のスケジュール調整といった仕事を、人間の監督を伴わずにこなせる新しい生成AI「エージェント」を構築。このエージェントとの対話に2ドル(約280円)を課金する予定だ。

セールスフォース、AI新戦略発表へ-生成AIとの対話に2ドル課金 - Bloomberg

果たしてこれはどのようなものでしょう。ChatGPTはあくまで対話型のチャットであって、なにか仕事をさせるにはユーザーが適切な問を投げる必要がありました。一方、AIエージェントであるエージェントフォースでは、SalesforceのさまざまなデータにAIがアクセスしつつ、顧客と対話したり、チームメイトとして仕事の一部を担当してくれます。下記の動画を見ると、そのイメージが分かるわけですが、うん。たしかにこれが想定どおり動けば、従業員の代わりになるといえそうです。

www.youtube.com

2025年に起こることは、SalesforceのようにAIを自社のサービスに組み込んで、それによって顧客から追加の売上を得られるサービスの登場だと思っています。AIを使うのではなく、これまで人に依頼していた内容をAIが代わりにやってくれるサービスです。

 

これがうまく機能すれば破壊的なイノベーションとなるでしょう。仕事を外注に出す必要なく、AIに依頼できるようになるからです。ただ、顧客がお金を払ってまで使いたい内容にできるかどうかは各ベンダーの腕の見せどころであり、これが作れるかどうかで業績に大きな差が生まれるのではないかと思います。

 

Salesforceの株価は、エージェントフォース発表からの期待の高まりを受けて上昇しています。

 

www.kuzyofire.com

www.kuzyofire.com

www.kuzyofire.com

www.kuzyofire.com