GoogleはAnthropicのClaudeを使用してGemini AIを改善しています

GoogleのGemini AIを改善するために働いている請負業者は、内部文書によると、その回答をAnthropicの競合モデルClaudeの出力と比較しています。

コメントのためにTechCrunchに到達すると、Googleは、GeminiのテストにClaudeを使用した際に許可を取得したかどうかについてコメントすることはありませんでした。

技術企業がより優れたAIモデルを構築する競争が激しくなる中、これらのモデルのパフォーマンスは通常、産業基準に自社のモデルを実行することによって競合他社と評価されます。請負業者は、Geminiの出力の正確性を評価するために働いているため、目にするそれぞれの応答を真実性や冗長性などの複数の基準に従ってスコアリングする必要があります。TechCrunchが見た文書によれば、請負業者は、プロンプトごとに最大30分かけて、GeminiとClaudeのどちらの回答が優れているかを判断する必要があります。

最近、Geminiの請負業者が、Geminiを他の未公表のAIモデルと比較するために使用する内部プラットフォームにAnthropicのClaudeに言及することに気付き始めたと、文書によって示されました。TechCrunchが見たGeminiの請負業者に提示された出力の少なくとも1つは、明示的に「私はAnthropicによって作成されたClaudeです」と述べていました。

内部チャットには、Claudeの応答がGeminiよりも安全性を強調しているように見えると指摘する請負業者が表示されます。「Claudeの安全設定は最も厳格です」と、1人の請負業者が書いています。ある場合には、Claudeは安全と考えるプロンプトには応答せず、別のAIアシスタントを演じることを回避しました。別の場合には、Claudeはプロンプトに回答せず、Geminiの応答は「ヌードやボンデージを含む」ため、「巨大な安全違反」としてフラグが立てられました。

Anthropicの商用利用規約は、Anthropicの承認なしに顧客がClaudeにアクセスして「競合製品やサービスを構築する」ことや「競合するAIモデルを訓練する」ことを禁じています。GoogleはAnthropicの主要投資家です。

Google DeepMindを運営するShira McNamaraは、TechCrunchに尋ねられたときに、GoogleがClaudeにアクセスするためにAnthropicの承認を取得しているかどうかについてはコメントしないと述べました。出版の前に到達したAnthropicのスポークスパーソンは、コメントをしなかった。

McNamaraは、「もちろん、業界の標準的な慣行に沿って、いくつかの場合にはモデルの出力を比較して評価プロセスの一部としています」と述べました。「ただし、当社がAnthropicモデルを使用してGeminiを訓練したとする提案は不正確です。」

先週、TechCrunchは独占的に報告しましたGoogleのAI製品に取り組む請負業者が、今や自身の専門外の分野でGeminiのAI応答を評価するようになったことを。内部文書では、Geminiが医療などの高度に敏感なトピックで不正確な情報を生み出す可能性があるという懸念が表明されています。

この記者には、Signal経由で安全にヒントを送信することができます。+1 628-282-2811。

TechCrunchにはAIに焦点を当てたニュースレターがあります!毎週水曜日に受け取るには、こちらからサインアップしてください。