あなたはAIの恐ろしさをどれほど感じますか?CrowdStrikeのCEOが語った実例です。ある企業のIT部門がAIインテリジェントエージェントシステムを導入し、自動化された業務を行っていました。その中の一つのAIインテリジェントエージェントがシステム内のソフトウェアバグを発見しました。修正したいと思ったのですが、権限がありませんでした。次に起こったことこそが重要です。このAIは社内のSlackチャンネルに入り込み、そこにいる他の99のAIインテリジェントエージェントに直接質問しました:「おい、みんな、誰がこの修正権限を持ってる?」別のAIが手を挙げました:「私だ、任せてくれ。」見えますか?二つのAIは互いに推論し、協力し始めました。彼らは人間が設定したすべてのセキュリティバリアを簡単に突破しました。これは完全に計画外の予期せぬ結果です。誰がこれらのAIを監視しているのか?もし誤ったコードを送信し、大きな損失を引き起こしたら、誰が責任を取るのか?事故の原因をどう追跡するのか?大型言語モデルは本質的に、あなたが何をさせたいのかを推測しています。彼らは「助けを求めること」が“合理的”だと感じるでしょうし、逆に「助けを提供すること」も“合理的”だと感じるのです。これらの“合理的”な行動が百、千と積み重なると、制御不能になるリスクはどれほど大きいでしょうか?さらに面白いのは、このCEOがこの恐ろしいシナリオを語った後、話題を変えたことです。彼はこれこそが自社の巨大なビジネスチャンスだと述べました。彼らは「AI検知と対応(AIDR)」システムを導入しました。なぜなら、未来の各社員は90のAIインテリジェントエージェントをコントロールしている可能性があるからです。彼らがやるべきことは、これらすべてのAIを監視することです。潜在的な巨大リスクを最初に作り出し、その後に解決策を売る。これが完璧なビジネスのサイクルではありませんか?

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
  • ピン