AI PCの発売:Intelは、Intel Core Ultraプロセッサをリリースし、AI PCを12月14日に発売します。 これは、インテルが統合ニューラル・プロセッシング・ユニット(NPU)に初めて進出し、PC上で直接効率的なAIアクセラレーションを実現するものです。
AI スーパーコンピューター: インテルは、インテル Xeon Xeon プロセッサーとインテル Gaudi2 AI ハードウェア・アクセラレーターをベースにした大規模な AI スーパーコンピューターを構築しています。 Stability AIは主要な顧客であり、アリババは推論エンジンに第4世代のXeon Xeonプロセッサを使用する予定です。
The Informationによると、初期の大規模なOpenAIの顧客はより安価な代替品を探していますが、Microsoftは場合によっては、実行コストの高いOpenAIの代わりに、よりシンプルで安価なオープンソースのAIモデルを使用したいと考えています。 市場に自信を持つ他のAIプロバイダーと同様に、Intelは、大規模モデルのニーズの増大から利益を得ることができます。
人工知能の波に直面して、インテルの選択
出典:Alpha Rabbit Research Notes
人工知能ブームの進展に伴い、Intelの老舗ライバルであるNvidiaやBroadcom(Broadcom:今年第2四半期にチップの売上が予想以上に伸び、来年度にはBroadcomのAI関連チップ事業が70億ドルに倍増し、Nvidiaに次ぐ世界第2位のAIチップ企業になる見込み)※など、人工知能の波の中で輝きを放つ企業もいますが、Intelは人工知能のペースに追いついていないようです。
早ければ2023年5月、ドイツで開催されたスーパーコンピューティングカンファレンスで、Intel Corporation(INTC.O)は、2025年に発売予定のGPUチップFalcon Shoresのパラメータを次のように発表しました:高帯域幅メモリ(HBM3)の仕様は288GBに達し、8ビット浮動小数点演算をサポートし、総帯域幅は9.8TB/sに達する可能性があります。
また、ポンテ・ヴェッキオを拠点とするスーパーコンピュータ「Aurora」が、米国のアルゴンヌ国立研究所に納入される予定です。 しかし、例えば、チップの発売のスピード**により、Falcon Shoresの後継チップは2025年まで入手できず、Nvidiaのように製品をいち早く発売した企業と競争することは依然として困難です。 **
2023 年 9 月 19 日にカリフォルニア州サンノゼのインテル・イノベーション・センターで開催されたインテルのイベントでも、AI について考えることに焦点が当てられ、特に Pat Gelsinger 氏はインテル・イノベーションの初日にいくつかのポイントを提示しました。
プロセス技術の進歩について:インテルは、4年間で5つのプロセスノードを予定しています。 同社は、Universal Chip Interconnect Expression(UCIe)を使用して相互接続する初のマルチチップセットパッケージを展示しました。
次世代インテルXeon Xeonプロセッサー:インテルは、今後のXeon Xeonプロセッサーの詳細を発表しました。 これらのプロセッサは、電力効率とパフォーマンスを大幅に向上させます。 また、288コアのEコアプロセッサも発売しました。 第 5 世代インテル Xeon Xeon プロセッサーは、12 月 14 日にリリースされます。
AI PCの発売:Intelは、Intel Core Ultraプロセッサをリリースし、AI PCを12月14日に発売します。 これは、インテルが統合ニューラル・プロセッシング・ユニット(NPU)に初めて進出し、PC上で直接効率的なAIアクセラレーションを実現するものです。
AI スーパーコンピューター: インテルは、インテル Xeon Xeon プロセッサーとインテル Gaudi2 AI ハードウェア・アクセラレーターをベースにした大規模な AI スーパーコンピューターを構築しています。 Stability AIは主要な顧客であり、アリババは推論エンジンに第4世代のXeon Xeonプロセッサを使用する予定です。
Intel Developer Cloud: Intel は、Intel Developer Cloud の一般提供を発表しました。 このプラットフォームは、人工知能を含む高性能アプリケーションの構築とテストに使用するように設計されています。 すでに複数の顧客によって使用されており、以前はベータ版でした。
ソフトウェア・ソリューション: インテルは、インテル OpenVINO ツールキットの 2023.1 リリースを含む、今後のソフトウェア・ソリューションを紹介しました。 これにより、開発者は新しい AI 機能を活用できます。
AIへのクライアントの賭け:コードネーム「Meteor Lake」と名付けられた新しいコアUltraプロセッサは、クライアント側でAIを推進するためのIntelの戦略的な動きです。 ゲルシンガーが説明するように、AI、クラウド、PCの組み合わせは、PCエクスペリエンスを劇的に変革し、強化します。
Core Ultra プロセッサーの機能: Core Ultra プロセッサーには、効率的な AI 操作を実現するインテル初の統合 NPU が搭載されています。 これは、Foveros 3Dパッケージング・テクノロジーがサポートするインテル初の顧客向けチップ設計です。 NPUに加えて、プロセッサはIntel 4プロセステクノロジーのおかげで電力効率が大幅に向上しました。 さらに、ディスクリートレベルのグラフィックスパフォーマンスを備えた組み込みのIntelArcグラフィックスを提供します。
最新の戦略
**最近、Informationは、Intelが新しい戦略的取り決めを行い、専門知識を持たない顧客向けにChatGPTのようなアプリケーションを構築するために多くのコンサルティング会社と協力していると報じました。 このプロジェクトは、ボストン・コンサルティング・グループとのパートナーシップで今年初めに開始され、今後、他のコンサルティング会社と共同で設立される予定です。 **
さらに、インテルはTo Bアプリケーションを企業顧客に直接販売する予定です。
しかし、現在、ほとんどのAI顧客は、OpenAIなどの企業から大規模言語モデルサービスを購入しています。 しかし、インテルは大手コンサルティング会社と協力して、顧客が特定のニーズに適したモデルを見つけられるようにしたいと考えています。
具体的には、インテルは、お客様のモデルチューニングを支援するソフトウェアを開発しています。 これにより、顧客は独自の ChatGPT のようなアプリや AI を利用した検索ツールを開発できます。 ただし、Intelは、このサービスの機能、利点、および特定のコストと価格をまだ完全に発表しておらず、今後数か月以内に正式に発表されると推定されています。
**インテルの行動は、テクノロジー企業における戦略的レイアウトとしての人工知能の重要性を十分に示しています。 インテルがソフトウェア開発に関与しているということは、現時点では、顧客がインテルのチップを使用するかどうかが最も重要ではないことを意味します。 また、Intelは一部の顧客にIntelのGaudiチップとXeonチップを使用してLLMを駆動するよう指示する予定であるとも報じられています。 同時に、Nvidiaは重要なAIソフトウェアビジネスの構築にも取り組んでいますが、その焦点は、AIコンピューティングを支配するグラフィックプロセッサをすでに使用している顧客にあります。
多くの企業が、従業員や顧客が会議の内容を要約したり、ソフトウェアコーディングを自動化したり、リード宛てのメールを生成したりするのに役立つ新製品を迅速に展開した後、米国でこれらのツールを使用している企業は、LLMの支出を削減しようとしています。
The Informationによると、初期の大規模なOpenAIの顧客はより安価な代替品を探していますが、Microsoftは場合によっては、実行コストの高いOpenAIの代わりに、よりシンプルで安価なオープンソースのAIモデルを使用したいと考えています。 市場に自信を持つ他のAIプロバイダーと同様に、Intelは、大規模モデルのニーズの増大から利益を得ることができます。
しかし、インテルは依然として、従来のクラウドサービスプロバイダーや、クラウドサーバーや人工知能で顧客を支援する既存の小規模なコンサルティング会社と競争しなければなりません。 Microsoft、Amazon、Googleなどのクラウドサービスプロバイダーは、AI LLMのトレーニングと実行に専用サーバーをレンタルすることで、AI LLMに関連する企業支出のほとんどを吸収したいと考えています(特にMicrosoftはこの分野である程度の進歩を遂げています)。 同時に、Nvidiaは、これらのクラウドサービスプロバイダーと顧客の間に身を置き、チップを搭載したサーバーを使用して独自のクラウドサービスを実行しようとしています。
少し遅れているように思えるかもしれませんが、Intelの強みは「多額の資金と強力なマーケティングエンジン」です。 **
参考文献: