ChatGPT やその他の新しい AI ツールについて考えるとき、小中学生が AI を使って作文を書く例が注目されることがよくあります。もし子供たちがこれをやったら、学校システムはどうなるでしょうか? しかし、この種の質問は要点を外しています。学校の作文のことは忘れて、2024 年の次期米国大統領選挙について考え、大量の政治コンテンツやフェイク ニュースを作成するために AI ツールがどのように使用されるかを想像してみてください。
もっと日常的なレベルで言えば、中絶や気候変動、ロシアとウクライナの紛争について、オンラインで生身の人間と話し合っていると思っていても、その相手は実はAIだった、ということにすぐに気づくかもしれない。問題は、私たちの認識に影響を与える可能性が高いほどの精度で情報を洗練できる AI に対する認識を変えることに時間を費やすのは無意味だということです。 **
**人間の言語を習得することで、AI は人間との親密な関係を築き、その関係の力を利用して人間の認識や世界観を変える可能性さえあります。 **AI が自身の意識や感情を持っているという兆候はありませんが、AI が人間と偽りの親密さを育むために必要なのは、人間が AI に感情的に執着することだけです。
2022年6月、Googleエンジニアのブレイク・ルモワン氏は、開発中のAIチャットボットLaMDAにはすでに知覚力があったと公に主張した。この物議を醸した主張により、彼は職を失った。これについて最も興味深いのは、ルモイン氏の発言(これは真実ではない可能性があります)ではなく、AIチャットボットの名前を正当化するために高収入の仕事を失う危険を冒すという彼の意欲です。 AI によって人々がそのために仕事を危険にさらせるとしたら、人々に別のことをするように誘導することは可能でしょうか?
国民の心を掴むための政治闘争においては、親密さが最も効果的な武器となる。そして AI は、何百万もの人々と親密な関係を築く能力を獲得したばかりです。
過去 10 年間、ソーシャル メディアが人々の注目を集める戦場となったことは誰もが知っています。新世代の AI の出現により、戦況は注目から親密さへと移りつつあります。 *人間とより密接な関係を築くことができる AI と AI の間で競争が発生し、その関係を利用して特定の政治家に投票したり、特定の製品を購入したりするように説得した場合、人間の社会と人間の心理はどのように変化しますか? *
「偽りの親密さ」を生み出さなくても、新しい AI ツールは私たちの認識や世界観に大きな影響を与える可能性があります。 AIアドバイザーは全知全能の神だと思われているかもしれないので、Googleがパニックになったのも不思議ではない。疑問があれば、神様に聞いてみればいいのに、なぜわざわざ検索するのか? 神様に尋ねるだけで最新のニュースが手に入るのに、なぜ新聞を読む必要があるのか、何のために新聞を読む必要があるのか、ニュース業界や広告業界は当然恐れています。
もちろん、AIの新たな力も活用されるかもしれません。 AI を開発している人々はすでに十分なことを述べているため、これについては詳しく説明しません。私のような歴史家や哲学者の仕事は、AI の危険性がどこにあるのかを指摘することです。しかし、AI が、がんを克服するための新しい治療法の発見から、生態学的危機の解決策の発見に至るまで、無数の方法で人間を助けることができることは疑いの余地がありません。私たちの目の前にある問題は、新しい AI ツールが悪ではなく善に確実に使用されるようにする方法です。これを行うには、まずこれらのツールの真の機能を認識する必要があります。
新しい AI ツールを管理することはまだ可能ですが、迅速に行動する必要があります。 **核兵器はより強力な核兵器を発明することはできませんが、AI は指数関数的により強力な AI を生み出すことができます。 **
**最初の重要なステップは、強力な AI ツールをパブリック ドメインにリリースする前に厳格なセキュリティ チェックを受けることです。 ** 製薬会社が短期および長期の副作用をテストせずに新薬をリリースできないのと同様に、テクノロジー企業も安全性を確保する前に新しい AI ツールをリリースすべきではありません。新しい技術を規制するには、米国食品医薬品局(FDA)のような機関が必要です。これらのことはずっと前に行われるべきでした。
公共領域への AI の導入が遅れると、民主主義はさらに無謀な権威主義体制に後れを取ることになるのではありませんか?全くその逆です。規制のないAIの導入は社会的混乱を引き起こし、独裁者に有利になり民主主義を弱体化させることになるだろう。 **民主主義は対話であり、対話は言語に依存します。 AI が言語を解読すると、意味のある会話をする私たちの能力、ひいては民主主義が損なわれる可能性があります。 **
私たちは地球上で非人間的知性体に遭遇したばかりですが、それが人類の文明を破壊する可能性があるということ以外、それについてほとんど知りません。私たちはパブリックドメインでの AI ツールの無責任な展開をやめ、AI に支配される前に AI を制御する必要があります。そして **私の最初の規制提案は、AI が AI であることを開示することを義務付けることです。自分が人間と話しているのかAIと話しているのか区別できなくなったら、それは民主主義の終わりです。 **
『人類の歴史』の著者: AI が人類文明のオペレーティング システムをハッキングした
*ハラリ氏は『人類略史』の中で自身の見解を続け、言語はほぼすべての人類文化の構成要素であると強調している。言語を生成する能力を持つAIが、言語を通じて人間の世界認識に影響を与える「AIが人類文明のオペレーティングシステムをハックする」。同氏はAIを「核兵器」に例え、さらなる安全対策を講じるための即時行動を呼びかけ、「AIにAIであることの開示を義務付ける」という提案もある。 *
*私たちはAIに関するさまざまな「理系学生」の代表者のスピーチを見てきましたが、人文科学の学者はAIが言語を通じて政治、宗教、ビジネスにどのような影響を与える可能性があるかをより具体的に説明しています。彼は、将来、人類はAIによって生み出された幻想の中で生きていくかもしれないと大胆に想定した。 『Metaverse Explosion』は彼の記事の全文をまとめた。 *
言語は、ほぼすべての人類文化の構成要素です。たとえば、人権は人間の DNA に刻まれているのではなく、物語を語ったり法律を制定したりすることによって創造された文化的成果物であり、神は物理的に存在するのではなく、神話を創作したり経典を書くことによって創造された文化的成果物です。
通貨も文化的な産物です。紙幣は単なるカラフルな紙切れであり、今日のお金の 90% 以上は紙幣ですらなく、コンピューター内のデジタル情報です。この通貨に価値を与えているのは、銀行家、財務大臣、仮想通貨の専門家たちが語る物語だ。FTX創設者サム・バンクマン・フリード、偽の「がん血液検査」、世界有数の実業家エリザベス・ホームズ、そして首謀者バーニー・マドフ史上最大のポンジスキームのメンバーはどちらも実際の価値を生み出すのがあまり得意ではありませんが、ストーリーを語るのは非常に上手です。
人間以外のエージェントが、物語を語り、メロディーを作り、イメージを描き、法律や経典を書くのが普通の人間よりも優れていたとしたらどうなるでしょうか?
ChatGPT やその他の新しい AI ツールについて考えるとき、小中学生が AI を使って作文を書く例が注目されることがよくあります。もし子供たちがこれをやったら、学校システムはどうなるでしょうか? しかし、この種の質問は要点を外しています。学校の作文のことは忘れて、2024 年の次期米国大統領選挙について考え、大量の政治コンテンツやフェイク ニュースを作成するために AI ツールがどのように使用されるかを想像してみてください。
近年、「匿名Q」の信者たちは、インターネット上に投稿された匿名の暴露を中心に集まっている(編注:「匿名Q」は、さまざまな陰謀論が集まるオンラインの場である。陰謀論の核心は、米国内部に陰謀があるというものである)政府のディープステート)。信者たちはそうした陰謀論を収集・宣伝し、聖書のようなものとみなしている。以前は、すべてのニュース速報投稿は人間によって書かれており、機械はそれを広めるのに役立つだけでした。しかし将来的には、人間以外の代理人によって経典が書かれた史上初の異教が現れるかもしれません。歴史を通して、宗教は自分たちの聖典は人間が起源ではないと主張してきました。これは近いうちに現実になるかもしれません。
もっと日常的なレベルで言えば、中絶や気候変動、ロシアとウクライナの紛争について、オンラインで生身の人間と話し合っていると思っていても、その相手は実はAIだった、ということにすぐに気づくかもしれない。問題は、私たちの認識に影響を与える可能性が高いほどの精度で情報を洗練できる AI に対する認識を変えることに時間を費やすのは無意味だということです。 **
**人間の言語を習得することで、AI は人間との親密な関係を築き、その関係の力を利用して人間の認識や世界観を変える可能性さえあります。 **AI が自身の意識や感情を持っているという兆候はありませんが、AI が人間と偽りの親密さを育むために必要なのは、人間が AI に感情的に執着することだけです。
2022年6月、Googleエンジニアのブレイク・ルモワン氏は、開発中のAIチャットボットLaMDAにはすでに知覚力があったと公に主張した。この物議を醸した主張により、彼は職を失った。これについて最も興味深いのは、ルモイン氏の発言(これは真実ではない可能性があります)ではなく、AIチャットボットの名前を正当化するために高収入の仕事を失う危険を冒すという彼の意欲です。 AI によって人々がそのために仕事を危険にさらせるとしたら、人々に別のことをするように誘導することは可能でしょうか?
国民の心を掴むための政治闘争においては、親密さが最も効果的な武器となる。そして AI は、何百万もの人々と親密な関係を築く能力を獲得したばかりです。
過去 10 年間、ソーシャル メディアが人々の注目を集める戦場となったことは誰もが知っています。新世代の AI の出現により、戦況は注目から親密さへと移りつつあります。 *人間とより密接な関係を築くことができる AI と AI の間で競争が発生し、その関係を利用して特定の政治家に投票したり、特定の製品を購入したりするように説得した場合、人間の社会と人間の心理はどのように変化しますか? *
「偽りの親密さ」を生み出さなくても、新しい AI ツールは私たちの認識や世界観に大きな影響を与える可能性があります。 AIアドバイザーは全知全能の神だと思われているかもしれないので、Googleがパニックになったのも不思議ではない。疑問があれば、神様に聞いてみればいいのに、なぜわざわざ検索するのか? 神様に尋ねるだけで最新のニュースが手に入るのに、なぜ新聞を読む必要があるのか、何のために新聞を読む必要があるのか、ニュース業界や広告業界は当然恐れています。
そして、たとえこうしたシナリオが考えられたとしても、依然として全体の状況を真に把握することはできなかった。人類の歴史の終わりの可能性について議論するとき、私たちは歴史の終わりについて話しているのではなく、歴史のうち人類が支配していた部分の終わりについて話しているのです。歴史は生物学と文化、私たちの生物学的ニーズと欲望(食べ物や性など)と文化的創造物(宗教や法律など)の相互作用の産物です。歴史は、法律と宗教が食生活とセックスに影響を与えていく段階的な過程です。
AI が文化を引き継ぎ、物語、メロディー、法律、宗教を創造し始めると、歴史の流れはどうなりますか? 以前は、印刷機やラジオなどのツールが人間の文化的概念の普及を促進していましたが、それらが自らを生み出すことはありませんでした。新しい文化概念。 AIはそれらとは根本的に異なります。 **AI は新しいアイデアや新しい文化を生み出すことができます。 **
最初は、初期の AI は、それを訓練した人間を模倣するかもしれません。しかし、時間の経過とともに、AI 文化はこれまで人間が行ったことのない場所に大胆に進出することになります。何千年もの間、人類は他の人類の夢の中で生きてきました。 **今後数十年のうちに、私たちは人間以外の知的エージェントの夢を生きていることに気づくかもしれません。 **
AI への恐怖が人類を悩ませたのはここ数十年のことです。しかし、はるかに深い恐怖が何千年も人類を悩ませてきました。私たちは、ストーリーや画像が心を操作し、幻想を生み出す力を常に理解しています。そのため、人間は古来より幻想の世界に囚われることを恐れてきました。
17 世紀、デカルトは自分が悪魔によって幻想の世界に閉じ込められ、彼が見聞きしたものはすべてこの悪魔によって設定されたものにすぎないのではないかと心配しました。古代ギリシャのプラトンは、洞窟について有名な寓意を語りました。人々のグループは一生洞窟に鎖でつながれており、彼らの前にはスクリーンのような空白の洞窟の壁しかありません。囚人たちは、洞窟の外の世界によって洞窟の壁に投影されたさまざまな影を見ることができたので、これらの幻想を現実として受け止めました。
古代インドでは、仏教とヒンズー教の聖者は、人間はマーヤ(幻想の世界)に住んでいると指摘しました。私たちが普段現実として認識しているものは、多くの場合、私たち自身の心の中の単なる幻想です。人間は、何らかのビジョンを信じているために、戦争をしたり、他人を殺したり、進んで殺されたりするかもしれません。
**AI 革命は、デカルトの悪魔、プラトンの洞窟、そしてマヤを直接私たちにもたらします。 **注意しないと、私たちは幻想のベールの後ろに閉じ込められ、それを引き裂くことができず、そこに幻想があることにさえ気づかない可能性があります。
もちろん、AIの新たな力も活用されるかもしれません。 AI を開発している人々はすでに十分なことを述べているため、これについては詳しく説明しません。私のような歴史家や哲学者の仕事は、AI の危険性がどこにあるのかを指摘することです。しかし、AI が、がんを克服するための新しい治療法の発見から、生態学的危機の解決策の発見に至るまで、無数の方法で人間を助けることができることは疑いの余地がありません。私たちの目の前にある問題は、新しい AI ツールが悪ではなく善に確実に使用されるようにする方法です。これを行うには、まずこれらのツールの真の機能を認識する必要があります。
私たちは 1945 年以来、原子力技術が人類の利益のために安価なエネルギーを生成できることを知っていましたが、同時に人類の文明を物理的に破壊する可能性もあります。そこで私たちは、人類を保護し、原子力技術が主に人類の利益のために使用されるようにするために、国際秩序全体を再構築しました。 **私たちは今、私たちの精神的世界と社会的世界を破壊する可能性がある新しいタイプの大量破壊兵器に対処しなければなりません。 **
新しい AI ツールを管理することはまだ可能ですが、迅速に行動する必要があります。 **核兵器はより強力な核兵器を発明することはできませんが、AI は指数関数的により強力な AI を生み出すことができます。 **
**最初の重要なステップは、強力な AI ツールをパブリック ドメインにリリースする前に厳格なセキュリティ チェックを受けることです。 ** 製薬会社が短期および長期の副作用をテストせずに新薬をリリースできないのと同様に、テクノロジー企業も安全性を確保する前に新しい AI ツールをリリースすべきではありません。新しい技術を規制するには、米国食品医薬品局(FDA)のような機関が必要です。これらのことはずっと前に行われるべきでした。
公共領域への AI の導入が遅れると、民主主義はさらに無謀な権威主義体制に後れを取ることになるのではありませんか?全くその逆です。規制のないAIの導入は社会的混乱を引き起こし、独裁者に有利になり民主主義を弱体化させることになるだろう。 **民主主義は対話であり、対話は言語に依存します。 AI が言語を解読すると、意味のある会話をする私たちの能力、ひいては民主主義が損なわれる可能性があります。 **
私たちは地球上で非人間的知性体に遭遇したばかりですが、それが人類の文明を破壊する可能性があるということ以外、それについてほとんど知りません。私たちはパブリックドメインでの AI ツールの無責任な展開をやめ、AI に支配される前に AI を制御する必要があります。そして **私の最初の規制提案は、AI が AI であることを開示することを義務付けることです。自分が人間と話しているのかAIと話しているのか区別できなくなったら、それは民主主義の終わりです。 **