SHOUJIKE

Google は、Gemini AI を改良するために Anthropic の Claude モデルを使用していると報じられています。

TechCrunchは12月25日、GoogleのAIモデル「Gemini」の改良に携わる請負業者が、その出力をAnthropicの競合モデル「Claude」と比較していたと報じた。この報道により、GoogleがClaudeをテストに使用することをAnthropicから承認されていたかどうかというコンプライアンス上の疑問が生じている。

注目すべきは、テクノロジー企業が優れたAIモデルの開発を競い合っている現在の状況では、モデルのパフォーマンスは通常、業界ベンチマークによって評価され、請負業者が競合他社のAI応答を評価に多大な時間を費やすことはないということです。しかし、Geminiの請負業者は、リアリティや冗長性など、複数の基準に基づいて、各応答を評価する必要がありました。TechCrunchが入手した通信によると、請負業者はGeminiの応答とClaudeの応答のどちらが優れているかを判断するために、最大30分しか与えられませんでした。

社内チャットログを見ると、契約業者はクロードの応答がジェミニよりもセキュリティを重視しているように見えることに気づいていた。ある契約業者は「すべてのAIモデルの中で、クロードのセキュリティ設定が最も厳格だ」と記していた。状況によっては、クロードは他のAIアシスタントとして動作しているときなど、安全ではないと判断したプロンプトに応答しなかった。別のテストでは、クロードは特定のプロンプトへの回答を避けたが、ジェミニの応答は「ヌードとボンデージ」への言及を含むため「重大なセキュリティ違反」と判定された。

アンスロピックの利用規約では、アンスロピックの承認なしに「競合する製品やサービスを構築するため」、または「競合するAIモデルをトレーニングするため」にClaudeにアクセスすることを禁止しています。Googleはアンスロピックの主要投資家です。

これに対し、Google DeepMind(Gemini担当)の広報担当者であるマクナマラ氏は、DeepMindは確かに評価のために「モデル出力を比較」しているものの、AnthropicモデルでGeminiを学習させているわけではないと述べた。「もちろん、業界の慣例に従い、特定の状況においては評価プロセスの一環としてモデル出力を比較しています」とマクナマラ氏は述べた。「しかしながら、Geminiの学習にAnthropicモデルを使用しているという主張は正確ではありません。」 (Yuanyang)