SHOUJIKE

報道によると、Amazon は Anthropic への依存を減らすためにビデオ AI モデルを開発しているという。

11月28日、The Informationは、Amazonがテキストに加えて画像や動画を処理できる新しい生成AIモデルを開発し、Anthropicへの依存を減らしていると報じた。

「オリンパス」というコードネームが付けられたこの新しいモデルは、画像や動画内のシーンを理解し、バスケットボールの試合の勝利の瞬間など、簡単なテキストプロンプトを使用して動画内の特定の部分やシーンを検索できるようになります。

また、AI モデルを使用して「最高においしいコーヒー」や「地面に落ちる雨滴」を作成したり、簡単なテキスト プロンプトを通じてより多くの機能を有効にしたりできるため、顧客が視覚データを操作する方法を根本的に改善し、検索をより高速かつ直感的で具体的なものにすることができます。

関係筋によると、アマゾンは早ければ来週にもAWS re:Inventテクノロジーカンファレンスでこのモデルに関する情報を発表する予定だという。

先週、AmazonはAnthropicへの40億ドル(現在約289億9600万人民元)の追加投資を発表し、AmazonのAnthropicへの総投資額は80億ドルとなった。(文周)