SHOUJIKE

Amazon Web Services、Nvidia、Microsoft はいずれも DeepSeek モデルをリリースしています。

DeepSeekは1月31日、OpenAIのGPT-4oに匹敵する性能を誇るオープンソースの次世代推論モデル「DeepSeek-R1」のリリースを発表しました。このリリースは、世界中のテクノロジーコミュニティから大きな注目を集めています。

現在、Amazon、Nvidia、Microsoftなどの米国のテクノロジー企業がDeepSeek-R1モデルを導入し、ユーザーがアクセスできるようにしています。

30日、Amazon Web ServicesはAmazon BedrockへのDeepSeekモデルのデプロイに関するライブオンラインセッションを開催しました。Amazon BedrockへのDeepSeekモデルの追加が簡単になりました。カスタムモデルインポート機能を使用することで、DeepSeek-R1 Distill LlamaモデルをAmazon Bedrockにデプロイし、Amazon Bedrock環境にシームレスに統合することで、Amazon Bedrockのサーバーレスインフラストラクチャと統合APIを最大限に活用できます。

ライブストリーム中、Amazon Web Services は中国の AI スタートアップ企業 DeepSeek を紹介し、非常に低コストでベースモデルと同等の性能レベルを実現できるモデルをリリースしました。

NVIDIAは本日、DeepSeek-R1モデルがNVIDIA NIMマイクロサービスのプレビューとしてbuild.nvidia.comで利用可能になったことを発表しました。DeepSeek-R1 NIMマイクロサービスは、単一のNVIDIA HGX H200システムで最大3,872トークン/秒の速度を実現します。開発者は、ダウンロード可能なNIMマイクロサービスとしてまもなく提供される予定のアプリケーションプログラミングインターフェース(API)を使用して、テストや実験を行うことができます。

30日、マイクロソフト会長兼CEOのサティア・ナデラ氏は、DeepSeek-R1モデルがマイクロソフトのAIプラットフォームAzure AI FoundryとGitHubを通じて利用可能になり、まもなくマイクロソフトのAIコンピューターCopilot+ PCでも動作可能になると発表しました。ナデラ氏はまた、新しいDeepSeekモデルは非常に印象的で「真の革新性を備えている」と述べ、AIのコスト低下はトレンドであると述べました。

その後、MicrosoftはNPU向けに最適化されたDeepSeek-R1のリリースを発表しました。最初のバッチは、Qualcomm Snapdragon Xチップを搭載したCopilot+ PCで利用可能になり、その後、Intel Core Ultra 200Vなどのプラットフォームでも利用可能になります。