SHOUJIKE

エヌビディアCEOジェンスン・フアン氏:「GB200はフル生産中で順調に進んでいる」

12月19日、NVIDIAのAIサーバー「GB200」の出荷遅延に関する最近の報道が広く議論を呼んでいたが、NVIDIA CEOのジェンスン・フアン氏の最新の声明が市場に大きな刺激を与えた。フアン氏は、GB200は現在フル稼働状態にあり、全体的な進捗は順調であると明言し、外部からの様々な懸念を効果的に払拭した。

ジェンスン・フアン氏はさらに、NVIDIAの最新のBlackwellプラットフォームサーバーは、推論時の高効率と省電力の完璧な組み合わせを実現するだけでなく、驚異的な30倍のパフォーマンス向上を誇ると強調しました。この発言は、NVIDIAの技術革新における強力な能力を示すだけでなく、Blackwellプラットフォームサーバーへの市場の注目をさらに高めました。

ジェンセン・フアン氏は、「AI機能の構築に競い合う企業はますます増えており、3ヶ月のタイム差がゲームのルールを変える可能性がある」と率直に述べた。また、ブラックウェル・プラットフォーム・サーバーの「超高性能」に自信を示し、士気を安定させ、フォックスコン、クアンタ、ウィストロン、インベンテックといったGB200 AIサーバーファウンドリの出荷を安心させた。

注目すべきは、当初GB200 AIサーバーの出荷を担当していたFoxconn、Quanta、その他のファウンドリが、年末までに少量生産、来年第1四半期には量産開​​始の計画を明らかにしていたことです。ジェンセン・フアン氏の保証を受け、これらのファウンドリはGB200 AIサーバーの出荷見通しについてさらに楽観的な見通しを示し、計画通りに開発を進め、各社に大幅な収益増加をもたらすと期待しています。

さらに、インタビューの中でジェンセン・フアン氏は、Blackwellプラットフォーム搭載のAIチップの出荷が順調に進んでいることを明らかにし、その優れた性能を改めて強調しました。フアン氏は、従来はモデルの学習に必要なデータの処理と学習に数ヶ月かかっていたが、Blackwellプラットフォームの導入により、このプロセスを従来の3分の1から4分の1に短縮できると指摘しました。

従来、モデルの学習に6か月かかっていたものが、今では約1か月半で完了します。この改善は、AIモデルの学習効率を大幅に向上させ、AI技術の広範な応用に向けたより強固な基盤を提供することは間違いありません。(Deer Antler)