OpenAIの研究責任者Noam Brownは、特定のAI「推論」モデルは数十年前に到来できたと考えています

OpenAIの推論研究を率いるNoam Brownは、研究者が「正しいアプローチを知っていた場合」とアルゴリズムについて述べ、一部の形式の「推論」AIモデルは20年前に到着していた可能性があると述べています。

ブラウンは、水曜日にサンノゼで行われたNvidiaのGTCカンファレンスでのパネルで、「この研究方向が無視された理由はさまざまでした」と語った。「私の研究の過程で気がついたのは、人間は難しい状況で行動する前に多くの時間を考えて過ごしています。おそらくこれはAIにとって非常に便利だったでしょう」と述べました。

ブラウンは、Carnegie Melon UniversityでのゲームプレイAIに関する研究、特にポーカーでエリートな人間プロフェッショナルを打ち負かしたPluribusに関する研究を参照していました。ブラウンが手助けをしたAIは、より従来の方法よりも「推論」を用いた問題の解決に取り組んでいました。

ブラウンは、OpenAIのAIモデルであるo1の設計者の一人であり、テスト時推論と呼ばれる技術を用いてクエリに応答する前に「考える」ようになっています。テスト時推論は、モデルを実行して「推論」の形を駆使するために追加の計算を適用することを意味します。一般的に、いわゆる推論モデルは、数学や科学などの領域で特に、従来のモデルよりも正確で信頼性が高いです。

ブラウンは、アカデミアが計算リソースにアクセスできないという一般的な理由から、AIラボのようなスケールの大きな実験を行うことは可能かどうかという質問を受けました。モデルがより計算集約的になったことから、近年ますます難しくなってきたと認めつつも、アカデミックがモデルアーキテクチャの設計など、より少ない計算を必要とする領域を探求することで影響を与えることができると述べました。

「[フロンティアラボとアカデミアの間で]協力の機会があります」とブラウンは付け加えました。「確かに、フロンティアラボはアカデミックの出版物を見てじっくり考えています。この論文から、さて、これがさらに拡大されれば非常に効果的であるという説得力のある議論があれば、これらのラボで調査します」。

ブラウンのコメントは、トランプ政権が科学研究助成金を大幅に削減している中で行われています。ノーベル賞受賞者であるジェフリー・ヒントンを含むAI専門家たちは、これらの削減が国内外のAI研究活動に脅威を与える可能性があると批判しています。

ブラウンは、AIベンチマーキングをアカデミアが重要な影響を与える可能性のある分野として挙げました。「AIのベンチマークは実際に非常に悪い状態であり、それは多くの計算を必要としません」と述べました。

以前に書いたように、現在の一般的なAIベンチマークは、難解な知識をテストし、ほとんどの人々が関心を持つタスクでの能力との相関が悪いスコアを与えています。その結果、モデルの能力や改善に関する混乱が広まっています。

4:06 p.m. Pacific に更新: 本稿の早期バージョンは、ブラウンが最初の発言でo1のような推論モデルを指していると暗示していると誤解を招くと示唆していました。実際には、彼はOpenAIに入社する前のゲームプレイAIの研究に言及していました。誤りをお詫び申し上げます。