|
ITホームニュース、3月1日 – 技術メディアのSmartprixは昨日(2月28日)ブログ記事を公開し、OpenAIがGPT-4.5モデルを紹介するビデオでGPT-6のトレーニングに必要なGPUの数を誤って明らかにし、その規模が以前よりもはるかに大きくなることを示唆したと報じました。 IT Home からの注記: GPT-4.5 モデル紹介ビデオの 2 分 26 秒目に、OpenAI が GPT 4.5 の機能をデモンストレーションしているチャット ログに「Num GPUs for GPT 6 Training」というフレーズが表示されました。 動画では説明されていないが、「Num」は前例のない数字を示唆している可能性があり、メディアでは GPU の数が 10 万台に達する可能性があると推測している。 以前、OpenAI は GPT-3 のトレーニングに約 10,000 個の GPU を使用したと報告されており、モデルの反復が続くにつれて、コンピューティング リソースの需要も増加しています。 社内コードネーム「Orion」のGPT 4.5は、自然さと「錯覚」の軽減において大きな進歩を遂げており、パラメータ数は3兆から4兆を超える可能性があります。GPT 4.5の学習には3万から5万基のNVIDIA H100 GPUが使用され、学習コストは7億5,000万元から15億ドルと推定されています(IT Home注:現在推定約54億6,900万元から109億3,700万元)。 スクリーンショットの「Num」の意味は不明です。これは「Numerous(多数の)」の略語である可能性があり、GPT-6の学習規模が以前よりもはるかに大きくなっていることを示唆しています。もちろん、これはOpenAIによる単なる煙幕である可能性もあります。o1シリーズのコードネームとして「Strawberry」が使われていたのと同様です。 |
OpenAI GPT-6 トレーニング規模が過去最高に達する見込み: 推定 100,000 台の H100 GPU。
関連するおすすめ記事
-
Qi An Xin:DeepSeekが米国のIPアドレスからブルートフォース攻撃を受ける
-
TechWeb イブニングニュース: Seres が BBA ディーラーのオンライン販売への転換を推進、Musk が xAI が AI ゲーム スタジオを設立すると発表。
-
Lu Weibing:Xiaomi 15 Ultraは遅延しておらず、すべて順調です。
-
JD.com:フルタイム配達員に社会保険料と住宅基金を支給
-
テスラのエネルギー貯蔵工場はわずか7か月で完成に近づき、再び「上海スピード」の新記録を樹立した。
-
Apple、iOS 18.4 ベータ 1 アップデートの一部を緊急撤回。iPhone 12 などのデバイスでは、アップグレード後に無限に再起動する問題が発生。