
POINTこの記事から学べる事:AIの進歩と半導体の関係を学び投資に役立てる
「最先端技術に欠かせない半導体、投資先としての魅力」において、シリコンサイクルの歴史を紐解くとともに、半導体株式投資に関してお話をさせて頂きました。
この記事では「半導体の未来」を中心に据えてAIやデータセンターのお話を交えながら、今後の技術の発展が見出せるのかをお話しさせいただきたいと思います。半導体の進歩とAIやデータセンター、その先の将来の半導体の需要と変革がどうなっていくのか、私なりの解釈を含めてご紹介していきたいと思います。
前回までの「最先端技術に欠かせない半導体、投資先としての魅力」についてはこちらをご参照ください。

データセンター普及の歴史
いまでは大手テック企業が大規模データセンターを世界各地に保有し、クラウド上でデータを保存したり、データベース化したデータを利用して特定の処理ができることは一般的となりました。
現在に至るまでのデータセンターの歴史を振り返ってみます。
- 1960年代: メインフレーム時代
- 最初のデータセンターは、IBMなどのメインフレームコンピュータを中心に構築されました。この時代のプロセッサは、トランジスタ技術を用いたもので、集積度が低くパワーも限定的でした。
- 1970年代: ミニコンピュータ時代
- DEC(ディジタル・イクイップメント・コーポレーション)などのミニコンピュータが登場し、データセンターの規模が縮小され、コストが削減されました。この時代のプロセッサは、集積回路技術が進化し、より高速な演算が可能になりました。
- 1980年代: サーバー時代
- サーバー技術の発展に伴い、データセンターはより多機能で柔軟なシステムへと進化しました。この時代のプロセッサは、インテルが開発したx86アーキテクチャのCPUが主流となりました。
- 1990年代: インターネット時代
- インターネットの普及に伴い、データセンターはウェブサービスやメールシステムのホスティングに対応するようになりました。この時代のプロセッサは、x86アーキテクチャのCPUが引き続き主流でしたが、性能向上や消費電力の削減が求められました。
- 2000年代: 仮想化時代
- サーバー仮想化技術が登場し、データセンターの運用効率が大幅に向上しました。この時代のプロセッサは、インテルのXeonやAMDのOpteronなど、仮想化に対応した高性能なCPUが開発されました。
- 2010年代: クラウドコンピューティング時代
- クラウドコンピューティングが急速に普及し、データセンターは巨大な規模で構築されるようになりました。この時代のプロセッサは、インテルのXeonやAMDのEPYCシリーズなど、多コアで高性能なCPUが主流となりました。また、NVIDIAのGPUやGoogleのTPU(Tensor Processing Unit)など、AIや機械学習向けの専用プロセッサも普及し始めました。
- 2020年代: エッジコンピューティングとサステイナビリティ時代
- エッジコンピューティングが注目され、データセンターはより分散化され、低遅延な処理が求められるようになりました。また、省エネルギーやリサイクル技術の発展により、サステイナビリティが重要な課題となりました。この時代のプロセッサは、インテルやAMDのCPUに加え、ARMアーキテクチャのプロセッサや、AI向けのASIC(Application Specific Integrated Circuit)など、多様なプロセッサが使用されるようになりました。
AI普及の歴史
AIは実はかなり以前から研究開発は半導体の進歩とともに歩んできました。初期のAIは本当に研究段階、理論の段階であり、現在はすでに実用段階に入っています。
1940年代:
- 1943: ウォーレン・マカロックとウォルター・ピッツが人工ニューロンのモデルを発表。脳の神経細胞を模倣した最初の数学的モデルが生まれました。
- 1949: ドナルド・ヘッブが「ヘッブ則」を提唱し、学習理論を確立。脳内でのニューロン間の結合強度の変化を表す原則が提案されました。
1950年代:
- 1950: アラン・チューリングが「チューリングテスト」を提案。人工知能が人間の知能と見分けがつかないレベルに達したかを評価するための基準が設けられました。
- 1956: AI分野がダートマス会議で誕生、ジョン・マッカーシーが「人工知能」という言葉を作成。初のAI会議が開催され、研究分野としてAIが確立されました。
- 1957: フランク・ローゼンブラットがパーセプトロンを発表。単純な二層ニューラルネットワークを実装したモデルが提案されました。
1960年代:
- 1964: ELIZA(初期の自然言語処理プログラム)が開発される。人間との会話を模倣したプログラムが実現されました。
- 1969: Marvin MinskyとSeymour Papertがパーセプトロンの限界を指摘。パーセプトロンの認識能力に制約があることが明らかにされました。
1970年代:
- 1972: 日本語対話システム「対話人形」が発表。自然言語理解と生成を用いて対話を行う初のシステムが開発されました。
- 1974-1980: AIの冬、資金難による研究停滞期。AI研究の資金が減少し、研究が低迷する時期が訪れました。
1980年代:
- 1980: エキスパートシステムが商業化される。知識ベースと推論エンジンを組み合わせたシステムが広く普及しました。
- 1986: バックプロパゲーションアルゴリズムが発表される。ニューラルネットワークの学習に使われる誤差逆伝播法が提案され、ディープラーニングの基礎となりました。
- 1988: ジョン・マッカーシーが共著で非単調論理を提案。状況に応じて結論が変わる現実世界の推論を表現できる論理が登場しました。
1990年代:
- 1990年代初頭: AI分野での機械学習が盛んになる。データから学習し、知識を獲得するアルゴリズムやモデルが多く研究されました。
- 1997: IBMのチェスプログラム「ディープ・ブルー」がチェスの世界チャンピオンを破る。コンピュータが人間の知能を凌駕することが証明されました。
2000年代:
- 2006: ジェフリー・ヒントンが「ディープ・ラーニング」という言葉を提唱。多層ニューラルネットワークによる学習がデータ解析や予測に有用であることが認識されました。
- 2009: ImageNetデータセットが公開される。大規模な画像認識データセットが提供され、AIの画像認識能力が向上しました。
2010年代:
- 2012: アレックスネット(畳み込みニューラルネットワーク)がImageNetコンペティションで優勝。ディープラーニングが画像認識の分野で圧倒的な性能を発揮しました。
- 2014: シーケンス・ツー・シーケンスモデルが自然言語処理で革新をもたらす。文章生成や翻訳タスクにおいて、高い性能を実現しました。
- 2015: Googleのアルファ碁が世界チャンピオンの囲碁棋士を破る。ディープラーニングとモンテカルロ木探索を組み合わせた手法で、囲碁の世界で革命が起こりました。
- 2018: OpenAIがGPT-2を発表、自然言語生成技術が進化。大規模な事前学習モデルが登場し、自然言語処理の性能が大幅に向上しました。
- 2019: OpenAIがGPT-3を発表。さらに大規模なトランスフォーマーモデルが登場し、自然言語処理における画期的な性能が実現されました。
2020年代:
- 2020: AIとバイオインフォマティクスがCOVID-19パンデミック対策に貢献。ウイルスの配列解析や新薬開発などでAI技術が活用されました。
- 2021: オープンソースのAIフレームワークやプリトレーニングモデルが普及し、産業全体にAI技術が浸透。多くの企業がAI技術を活用し、イノベーションが加速しました。
- 2022: AI倫理やバイアス問題が注目されるようになり、技術の透明性や公平性が求められる。社会的なインパクトを考慮したAIの開発や利用が重要視されました。
AIの発展において大規模なデータ処理を高速に行うためGPUの並列処理が使われています。GPUはグラフィック専用ではなく、一般的な演算処理に使うことに特化したGPGPU(General Purpose computing with Graphic Processing Unit)が普及しAIで活躍しています。この分野に強いのがNVIDIAです。
他の分野では仮想通貨のマイニングにもGPUが使われています。仮想通貨のマイニングとは高速の演算処理を行って、一定の仮想通貨を手に入れることです。この演算処理は非常に複雑でGPUの並列処理が欠かせません。仮想通貨を手に入れるために、まるでデータセンターのようにGPUを並べて、超高速演算処理を行わせています。
半導体の未来
GPUは元々グラフィックカードとして発展してきましたが、近年ではAIや機械学習の分野での活用が急速に広がっています。GPUがCPUより優れている点は、並列処理性能が高く、大量のデータを同時に処理できる能力があるためです。具体的には以下のような分野でGPUが活用されています。
- ディープラーニング: 大規模なニューラルネットワークの学習や推論において、GPUは高速な並列処理能力を発揮します。このため、GPUを使ったディープラーニングは短時間で高精度なモデルを構築することができます。
- 画像・動画処理: 画像や動画の解析・生成において、GPUはピクセル単位の並列処理が可能であり、効率的に高速な処理を実現します。例えば、リアルタイムでの画像認識や動画編集、レンダリングなどが挙げられます。
- ゲームやVR/AR: GPUは3Dグラフィックスの描画や計算に長けており、ゲームやVR/ARの分野でCPUより優れたパフォーマンスを発揮します。
- データ分析・シミュレーション: 大規模なデータセットを扱うデータ分析やシミュレーションにおいて、GPUは高速な並列計算を行うことができます。これにより、効率的にデータを解析し、より迅速に結果を得ることができます。
- 仮想通貨のマイニング: 仮想通貨のマイニングにおいて、GPUは高速で並列処理ができるため、効率的に計算を行うことができます。
データセンターにフォーカスして見ると、NVIDIAのGPGPUはあくまで一部分であり、インテルやAMDのCPUも依然として主力の役割を担っています。これは、データセンターでは様々な用途の処理が求められるため、GPGPUが得意とする並列処理性能が必要とされない場合も多く存在するためです。
また、ARMアーキテクチャのCPUやGoogleのTPU(Tensor Processing Unit)など、他のプロセッサもデータセンターで活用されています。これらのプロセッサは、特定のワークロードに対して高い性能や効率を発揮することができます。
総じて、2020年代のデータセンターアーキテクチャは、NVIDIAのGPGPUが重要な役割を担っていますが、インテルやAMDのCPUなど、他のプロセッサも依然として主力となっているのが現状です。データセンターは用途に応じて様々なプロセッサが組み合わされており、そのバランスが重要となっています。
つまりGPUは確かに需要は広がっているものの、一方でCPU、特化型TPUなど半導体は微細化とともに、回路設計の面でも進化を続けています。
半導体産業は間違いなく今後ともAI、データセンター、仮想通貨のマイニングなど他の産業発展とともに、さらにその利用の幅を広げていくことでしょう。個人的に今後注目がされるのは、半導体の回路設計分野に注目していきたいです。おそらく半導体は分野ごとに最適化した回路設計が主流化します。つまり製造そのものも十分将来性はありますが、最適化されたアーキテクチャを創造していける企業に注目が集まると考えています。SOFTBANK傘下の👉ARMはその一つですね。今年一番のIPOとして注目されています。
この記事がみなさまの半導体産業の将来の展望と投資のお役に立つことができれば嬉しいです。
株式投資初心者の方はこちらもご参考にしてください(*^▽^*)

最後に広告載せさせてください(^_-)-☆
DMM FX:いまなら最大30万円キャッシュバックキャンペーン中~
