|
12月24日、TechCrunchは昨日(12月23日)のブログ記事で、OpenAIのo3モデルはARC-AGIなどのテストで素晴らしい結果を達成しているものの、計算コストが高いため、短期的には実用的なアプリケーションに広く採用されるのは難しいと主張した。 o3パフォーマンス o3の新機能の一つは、推論時間を低、中、高の3つの計算レベルで調整できることです。計算レベルが高いほど、o3のタスク実行パフォーマンスが向上します。 o3は、OpenAIにとってこの目標達成に向けた重要な一歩です。ARC-AGIベンチマークテストにおいて、o3は高計算設定で87.5%、低計算設定で75.7%というスコアを達成し、o1の3倍の性能を達成しました。 EpochAI の Frontier Math ベンチマークでは、o3 は問題の 25.2% を解決し (他のモデルは 2% を超えなかった)、新記録を樹立しました。 o3モデルのコストが高すぎる ARC-AGIベンチマークの作成者であるフランソワ・ショレ氏は、OpenAIのo3モデルはAI分野における大きな進歩であるが、そのコストはあまりにも高すぎるとブログ投稿に書いている。 ARC-AGI テストのパフォーマンス チャートによると、高得点バージョンの o3 はタスクごとに 1,000 ドル以上のコンピューティング リソース (注: 現在約 7,303 人民元) を使用し、o1 モデルはタスクごとに約 5 ドル相当のコンピューティング リソースを使用し、o1-mini はわずか数セントしか使用しませんでした。 これは、OpenAIが88%近くの高スコアを達成したにもかかわらず、170倍以上の計算リソースを消費したことを意味します。高計算バージョンo3は、テスト全体を通してリソースを使用するために1万ドル以上(現在約73,033人民元)の費用がかかりました。o3モデルの利用コストを負担できるのは、財政的に十分な機関や個人に限られます。 o3モデルは計算コストが高いため、日常的な小さな問題よりも、長期的な戦略的意思決定などの複雑な問題の処理に適しています。より効率的なAI推論チップとより費用対効果の高いAIチップが、将来的にo3モデルの使用コストを削減する鍵となる可能性があります。(顧元) |
推論の限界を押し広げる OpenAI o3 の AI モデルの背後には、経済的余裕のない人にとっては手の届かない高騰するコストがあります。
関連するおすすめ記事
-
DeepSeek のモデル数が 150 万を超え、世界で最も人気のあるオープンソースの大規模モデルになりました。
-
ホンダは、合併を成功させるには日産の営業利益が少なくとも3倍に増加する必要があると述べた。
-
サーバー リソースの制約により、DeepSeek は API サービスのトップアップを一時停止しました。
-
1億ドルの投資約束はiPhone 16の販売禁止を解除できなかった。報道によると、インドネシアはAppleが投資を増やすことを期待しているという。
-
テスラは米国自動車当局に懸念を表明:マーケティング資料により消費者が「FSD = 無人タクシー」と誤解する恐れがある。
-
OpenAI は、複雑な情報の検索と分析を容易にするために ChatGPT の「ディープ リサーチ」機能をリリースしました。