SHOUJIKE

OpenAI GPT-6 トレーニング規模が過去最高に達する見込み: 推定 100,000 台の H100 GPU。

ITホームニュース、3月1日 – 技術メディアのSmartprixは昨日(2月28日)ブログ記事を公開し、OpenAIがGPT-4.5モデルを紹介するビデオでGPT-6のトレーニングに必要なGPUの数を誤って明らかにし、その規模が以前よりもはるかに大きくなることを示唆したと報じました。

IT Home からの注記: GPT-4.5 モデル紹介ビデオの 2 分 26 秒目に、OpenAI が GPT 4.5 の機能をデモンストレーションしているチャット ログに「Num GPUs for GPT 6 Training」というフレーズが表示されました。

動画では説明されていないが、「Num」は前例のない数字を示唆している可能性があり、メディアでは GPU の数が 10 万台に達する可能性があると推測している。

以前、OpenAI は GPT-3 のトレーニングに約 10,000 個の GPU を使用したと報告されており、モデルの反復が続くにつれて、コンピューティング リソースの需要も増加しています。

社内コードネーム「Orion」のGPT 4.5は、自然さと「錯覚」の軽減において大きな進歩を遂げており、パラメータ数は3兆から4兆を超える可能性があります。GPT 4.5の学習には3万から5万基のNVIDIA H100 GPUが使用され、学習コストは7億5,000万元から15億ドルと推定されています(IT Home注:現在推定約54億6,900万元から109億3,700万元)。

スクリーンショットの「Num」の意味は不明です。これは「Numerous(多数の)」の略語である可能性があり、GPT-6の学習規模が以前よりもはるかに大きくなっていることを示唆しています。もちろん、これはOpenAIによる単なる煙幕である可能性もあります。o1シリーズのコードネームとして「Strawberry」が使われていたのと同様です。