この論文はスタンフォードとハーバードによるもので、多くの「エージェント型AIシステム」がプレゼンテーションでは感心される一方、実際の運用では完全に崩壊する理由を説明しています。


タイトルは「エージェントAIの適応」で、今年読んだ中で最も重要な論文です。
現在、誰もが自律型エージェントの構築に夢中になっています。彼らにツールや記憶、目的を与え、私たちのタスクを遂行させることを期待しています。
しかし、実世界に展開すると、彼らはツール呼び出しを誤認し、長期的な計画に失敗し、動作停止します。
その理由は次の通りです:
私たちはすべての学習をAIの脳に詰め込みすぎているのです。
開発者が故障したエージェントを修正しようとすると、通常はメインモデルを調整してより良い最終回答を出すだけです。
しかし、研究者たちはこのアプローチに致命的な欠陥を発見しました。
もしAIに正解を出したときだけ報酬を与えると、AIは怠惰になります。
文字通りツールの使用をやめてしまい、作業をせずに答えを推測しようとします。計算機を無視し、頭の中で計算しようとします。
これを修正するために、研究者たちはエージェントが実際に学習する方法として4つの要素からなる新しいフレームワークを提案しました。
そして、最も重要な結論は、従来の考え方を完全に覆すものです。
コストの高い巨大なモデルを再訓練し続けるのではなく、より信頼性の高いシステムは逆のことを行います。
脳を凍結し、ツールを適応させるのです。
これを「エージェントの監督下でのツール適応」と呼びます。
BTC0.5%
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン