|
ITホームニュース、3月1日 – 技術メディアのSmartprixは昨日(2月28日)ブログ記事を公開し、OpenAIがGPT-4.5モデルを紹介するビデオでGPT-6のトレーニングに必要なGPUの数を誤って明らかにし、その規模が以前よりもはるかに大きくなることを示唆したと報じました。 IT Home からの注記: GPT-4.5 モデル紹介ビデオの 2 分 26 秒目に、OpenAI が GPT 4.5 の機能をデモンストレーションしているチャット ログに「Num GPUs for GPT 6 Training」というフレーズが表示されました。 動画では説明されていないが、「Num」は前例のない数字を示唆している可能性があり、メディアでは GPU の数が 10 万台に達する可能性があると推測している。 以前、OpenAI は GPT-3 のトレーニングに約 10,000 個の GPU を使用したと報告されており、モデルの反復が続くにつれて、コンピューティング リソースの需要も増加しています。 社内コードネーム「Orion」のGPT 4.5は、自然さと「錯覚」の軽減において大きな進歩を遂げており、パラメータ数は3兆から4兆を超える可能性があります。GPT 4.5の学習には3万から5万基のNVIDIA H100 GPUが使用され、学習コストは7億5,000万元から15億ドルと推定されています(IT Home注:現在推定約54億6,900万元から109億3,700万元)。 スクリーンショットの「Num」の意味は不明です。これは「Numerous(多数の)」の略語である可能性があり、GPT-6の学習規模が以前よりもはるかに大きくなっていることを示唆しています。もちろん、これはOpenAIによる単なる煙幕である可能性もあります。o1シリーズのコードネームとして「Strawberry」が使われていたのと同様です。 |
OpenAI GPT-6 トレーニング規模が過去最高に達する見込み: 推定 100,000 台の H100 GPU。
関連するおすすめ記事
-
Exynos 2600 チップが鍵となる。報道によれば、Samsung は 2nm チップで反撃を開始するという。
-
知乎は2024年の「今年のトップ10の質問」を発表したが、そこには「黒い神話:悟空」やノーベル物理学賞に関する質問も含まれていた。
-
中国サイバーセキュリティ協会: Intel 製品に関連するサイバーセキュリティのリスクを体系的に調査することを推奨します。
-
Yunxi Technology:デジタルマーケティングで企業変革を推進し、AIで新たな成長の未来を推進
-
米国政府は、GlobalFoundries の米国における生産能力の増強を支援するため、同社に対して 15 億ドルの CHIPS 助成金を支給することを決定した。
-
BYDと『Black Myth: Wukong』がグローバル戦略提携に合意