元のソース: GenAI新世界 画像ソース:無制限のAIによって生成外国メディアのニュースによると、人工知能の急速な発展の世界では、将来についての議論はしばしばいわゆる「人工知能」に焦点を当てています。 この段階では、AIは人間ができることは何でも行うことができ、より良いものになります。OpenAIのCEOであるSam AltmanとCTOのMira Muratiとの最近の会話では、「AGIの潜在的な利点とリスク」というトピックに触れました。以下は彼らの会話からの抜粋です。**汎用人工知能は人類がこれまでに作成した中で最高のツールになります**Q:なぜ汎用人工知能がターゲットなのですか? **サム・アルトマン:今後10年または数十年で人間の状態を改善するために最も重要な2つのことは、豊富で安価なインテリジェンスです。 それがAGだと思います。 それから2番目は豊富で安いエネルギーです。 この2つのことを世界で達成できれば、他にどれだけのことができるか想像するのはほとんど難しいです。 私たちは、あなたが人々により良いツールを提供すれば、彼らはあなたを驚かせるようなことをするだろうと固く信じています。 汎用人工知能は、人類がこれまでに生み出した中で最高のツールになると思います。これにより、あらゆる種類の問題を解決できます。 私たちは新しく創造的な方法で自分自身を表現できるようになります。 私たちはお互いのために、私たち自身のために、世界のために、この展開する人間の物語のために、信じられないほどのものを創造します。 これは新しいことであり、新しいものには変化が伴い、変化は必ずしも順風満帆ではありません。Q:いつ表示され、表示されることをどうやって知ることができますか? **ミラ・ムラティ:おそらく今後10年以内に、それは少しトリッキーです。 私たちはしばしば知性について、それがどれほど知的であるか、それが意識的であるか、感覚的であるかなどについて話しますが、これらの声明は完全に真実ではありません。 彼らは私たち自身の知性を定義し、私たちが構築しているものはわずかに異なるからです。 Mira Murati、OpenAIの最高技術責任者Q: 特定のモデルのトレーニングに使用するデータの一部に満足できない人もいます。 例:ハリウッド、出版社。 モデルで作業しているときに、データの周りで何をしていますか? **Sam Altman: まず第一に、私たちは明らかに他の人が許可するデータのみを使用しています。 課題の1つは、データの種類が異なれば、所有者も大きく異なることです。 ですから、私たちは多くのことを試みています。 私たちは多様なパートナーシップを構築しており、他の新しい分野と同様に、新しい標準となるものが見つかると考えています。さらに、これらのモデルがよりスマートで機能的になるにつれて、必要なトレーニングデータはますます少なくなります。 私たちが行っている技術の進歩により、データとそのすべての形についての会話は変化すると思います。Q: パブリッシャーはデータに対して支払いたいと考えています。 このレースの未来は、誰が最高のデータに最もお金を払うかになるのでしょうか? **サム・アルトマン:いいえ、それはまさに私が言おうとしていたことです。 GPTモデルについて人々が本当に気に入っているのは、基本的に、特定の知識を知っているということではありません。 この知識を見つけるためのより良い方法があります。 それはそれがこの少年推論能力を持っているということです、そしてそれはどんどん良くなるでしょう。 それが本当のところです。 ## Altman: AIに人間と親密になってほしくない** Q:今後、そのようなロボットと深い関係を築きますか? **ミラ・ムラティ:それは重要な関係になるでしょう。 私たちが構築しているシステムは、あなたの家、あなたの教育環境、あなたの職場環境、そしてあなたが楽しんでいる間でさえ、どこにでもあるからです。だからこそ、それを正しくすることが実際に非常に重要です。 このインタラクションは、最終的にエクスペリエンスを向上させ、楽しくし、生産性を高め、創造性を高めるように慎重に設計する必要があります。また、製品側では、これらのシステムを制御できる感覚があり、私たちが望むことをするように指示でき、出力が信頼できることを確認したいと考えています。 あなたの好み、好きなこと、あなたがしていること、そしてモデルの能力が向上するにつれて、それはよりパーソナライズされます。そして、それは単なるシステムではありません。 特定の領域やタスクに対して多くのパーソナライズされたシステムを持つことができます。Q:大きな責任。 あなたは人々の友人をコントロールし、多分人々の恋人になるでしょう。 このコントロールについてどう思いますか? **サム・アルトマン:ここにいるのは私たちだけではありません。 多くの人々が関与するでしょう。 したがって、技術開発の軌道に「波を押す」ことができます。 だがしかし:a)私たちは、決定が人類、社会全体に属すると本当に信じています。b)私たちは、ここで複雑なシステムを構築する多くのプレーヤーの1人になります。 さまざまなサービスを提供する競合する製品があり、さまざまなタイプの社会的支持者と反対者がおり、規制上の問題があります。私は個人的にこの未来のビジョンについて深く心配しています、なぜなら将来、誰もが人間の友人よりもAIの友人に近づいてくるからです。 私は個人的にそれを望んでいません。 他の人がそれを望んでいると思いますし、そのようなものを作る人もいます。 それが世界が望んでいることであり、それが理にかなっていると思うなら、私たちはそれをします。 ## **安全なAIはラボで生まれていない** Q:シンプルなチャットボットができました。 現在蔓延している人工知能への恐怖を払拭できますか? **サム・アルトマン:警戒が必要な状況を考えるのにそれほど想像力は必要ありません。 繰り返しになりますが、私たちは素晴らしい見通しと信じられないほど前向きな影響に非常に興奮しているので、これを行っています。 人類のためにこれらを追求しないのは道徳的な失敗でしょう。 しかし、私たちは直面しなければなりません-そしてこれは他の多くの技術で起こります-それに伴う欠点。これは、リスクを考慮する必要があることを意味します。 自分の能力を測定し、リスクを軽減する方法でテクノロジーを構築しようとします。 次に、「これは新しいセキュリティ技術です」と言うと、他の人に渡します。Q:どれがありますか? **ミラ・ムラティ:それは単一の解決策ではありません。 データからモデル、製品のツール、そしてもちろんポリシーまで。 そして、私たちが構築しているこれらのテクノロジーに追いつくために、規制と社会のインフラストラクチャ全体について考えてください。したがって、途中で具体的な安全対策が何であるかを考えるとき、最初にテクノロジーを展開し、ゆっくりと現実に触れることです。 それが実際のユースケースや業界にどのように影響するかを理解し、実際にその影響に対処します。 規制であろうと著作権であろうと、影響が何であれ、実際にそれらの影響を吸収し、対処し、ますます多くの機能を開発し続ける必要があります。 ラボでテクノロジーを構築し、真空状態で構築し-——現実世界と接触せず、現実世界の摩擦に触れないことは、テクノロジーを安全に展開するための良い方法ではないと思います。サム・アルトマン:ミラの指摘は非常に重要です。 ラボで技術を「安全」にすることは非常に困難です。 社会は物事の使い方や適応の仕方が異なります。 AIを導入すればするほど、世界が使用するAIが増え、AIの安全性が高まり、「許容できないリスク許容度と、人々が心配する別のことが1つ、まったく問題ありません」と集合的に判断できると思います。 "**AIコンテンツに「透かし」を追加することは白黒ではありません**現在、少なくともOpenAIからは、画像やテキストを入力して「これはAIによって生成されたものですか?」と尋ねることができるツールはありません。 そうなんですか。 **ミラ・ムラティ:私たちの技術は、画像に関してほぼ99%の信頼性があります。 しかし、私たちはまだテスト中です、それはまだ早いです。Q:これはリリースする予定ですか? **ミラ・ムラティ:はい。Q:写真やテキストは大丈夫ですか? **ミラ・ムラティ:言葉で、何が理にかなっているのかを理解する必要があります。 写真の場合、質問はもう少し簡単です。 私たちはしばしば実験を行い、何かを展開してフィードバックを得ます。 時々、私たちはそれを取り戻し、それをより良くし、そしてそれを再び展開します。Sam Altman: コンテンツの「透かし」の概念について、誰もが同じ意見を持っているわけではありません。 生成するコンテンツに透かしを入れたくない人はたくさんいます。 さらに、それはすべてに非常に適応できるわけではありません。 たとえば、画像に透かしを入れることができるかもしれませんし、長いテキストに透かしを入れることができるかもしれませんし、短いテキストに透かしを入れることができないかもしれません。だからこそ、私たちは対話の一部になりたいのです。 この時点で、私たちは社会の集合的な意志に従うことをいとわない。 白黒の問題ではないと思います。 ## **AIは不平等を悪化させる可能性があります** Q:私たちは仕事の性質を変えようとしています。 この議論にさえ参加していない社会の大部分があります。 このような仕組みをどう開発し、他者を置き去りにすることなく、真により良い世界につながることを自発的に行うことができるでしょうか。ミラ・ムラティ:これは、不平等を本当に悪化させ、人間と文明としての私たちにとって事態を悪化させる可能性のある究極のテクノロジーであることに完全に同意します。 それはまた驚くべきことであり、多くの創造性と生産性につながり、私たちの生活水準を向上させることができます。 たぶん、多くの人が週に8時間または100時間働きたくないでしょう。 たぶん、彼らは一日4時間働き、それから他の多くのことをしたいと思っています。これは間違いなく労働力に多くの混乱を引き起こします。サム・アルトマン:これは非常に重要な質問です。 すべての技術革命は雇用市場に影響を与えます。 私はまったく恐れていません。 実際、それは良いことだと思います、それは進歩する方法だと思います。 私たちは新しくてより良い仕事を見つけるでしょう。私たちが社会として直面する必要があるのは、これが起こっているスピードだと思います。 私たちはこの変化について何かをしなければなりません。 人々にユニバーサルベーシックインカムを与えるだけでは十分ではありません。 人々は自律性とそれに影響を与える能力を持っている必要があり、私たちは一緒に未来のデザイナーになる必要があります。あなたが言ったように、誰もがこれらの議論に参加しているわけではありませんが、毎年もっと参加しています。 このツールを人々の手に渡し、ChatGPTを何十億もの人々に届けることで、人々は何が来るのかを考え、会話に参加する機会が得られるだけでなく、人々はこのツールを使用して未来を推進することができます。 これは私たちにとって非常に重要です。
OpenAIのCEOであるAltmanの最新のインタビュー:AIに関与する人が多ければ多いほど、AIの制御が向上します
元のソース: GenAI新世界
外国メディアのニュースによると、人工知能の急速な発展の世界では、将来についての議論はしばしばいわゆる「人工知能」に焦点を当てています。 この段階では、AIは人間ができることは何でも行うことができ、より良いものになります。
OpenAIのCEOであるSam AltmanとCTOのMira Muratiとの最近の会話では、「AGIの潜在的な利点とリスク」というトピックに触れました。
以下は彼らの会話からの抜粋です。
汎用人工知能は人類がこれまでに作成した中で最高のツールになります
Q:なぜ汎用人工知能がターゲットなのですか? **
サム・アルトマン:今後10年または数十年で人間の状態を改善するために最も重要な2つのことは、豊富で安価なインテリジェンスです。 それがAGだと思います。 それから2番目は豊富で安いエネルギーです。 この2つのことを世界で達成できれば、他にどれだけのことができるか想像するのはほとんど難しいです。 私たちは、あなたが人々により良いツールを提供すれば、彼らはあなたを驚かせるようなことをするだろうと固く信じています。 汎用人工知能は、人類がこれまでに生み出した中で最高のツールになると思います。
これにより、あらゆる種類の問題を解決できます。 私たちは新しく創造的な方法で自分自身を表現できるようになります。 私たちはお互いのために、私たち自身のために、世界のために、この展開する人間の物語のために、信じられないほどのものを創造します。 これは新しいことであり、新しいものには変化が伴い、変化は必ずしも順風満帆ではありません。
Q:いつ表示され、表示されることをどうやって知ることができますか? **
ミラ・ムラティ:おそらく今後10年以内に、それは少しトリッキーです。 私たちはしばしば知性について、それがどれほど知的であるか、それが意識的であるか、感覚的であるかなどについて話しますが、これらの声明は完全に真実ではありません。 彼らは私たち自身の知性を定義し、私たちが構築しているものはわずかに異なるからです。
Q: 特定のモデルのトレーニングに使用するデータの一部に満足できない人もいます。 例:ハリウッド、出版社。 モデルで作業しているときに、データの周りで何をしていますか? **
Sam Altman: まず第一に、私たちは明らかに他の人が許可するデータのみを使用しています。 課題の1つは、データの種類が異なれば、所有者も大きく異なることです。 ですから、私たちは多くのことを試みています。 私たちは多様なパートナーシップを構築しており、他の新しい分野と同様に、新しい標準となるものが見つかると考えています。
さらに、これらのモデルがよりスマートで機能的になるにつれて、必要なトレーニングデータはますます少なくなります。 私たちが行っている技術の進歩により、データとそのすべての形についての会話は変化すると思います。
Q: パブリッシャーはデータに対して支払いたいと考えています。 このレースの未来は、誰が最高のデータに最もお金を払うかになるのでしょうか? **
サム・アルトマン:いいえ、それはまさに私が言おうとしていたことです。 GPTモデルについて人々が本当に気に入っているのは、基本的に、特定の知識を知っているということではありません。 この知識を見つけるためのより良い方法があります。 それはそれがこの少年推論能力を持っているということです、そしてそれはどんどん良くなるでしょう。 それが本当のところです。
Altman: AIに人間と親密になってほしくない**
Q:今後、そのようなロボットと深い関係を築きますか? **
ミラ・ムラティ:それは重要な関係になるでしょう。 私たちが構築しているシステムは、あなたの家、あなたの教育環境、あなたの職場環境、そしてあなたが楽しんでいる間でさえ、どこにでもあるからです。
だからこそ、それを正しくすることが実際に非常に重要です。 このインタラクションは、最終的にエクスペリエンスを向上させ、楽しくし、生産性を高め、創造性を高めるように慎重に設計する必要があります。
また、製品側では、これらのシステムを制御できる感覚があり、私たちが望むことをするように指示でき、出力が信頼できることを確認したいと考えています。 あなたの好み、好きなこと、あなたがしていること、そしてモデルの能力が向上するにつれて、それはよりパーソナライズされます。
そして、それは単なるシステムではありません。 特定の領域やタスクに対して多くのパーソナライズされたシステムを持つことができます。
Q:大きな責任。 あなたは人々の友人をコントロールし、多分人々の恋人になるでしょう。 このコントロールについてどう思いますか? **
サム・アルトマン:ここにいるのは私たちだけではありません。 多くの人々が関与するでしょう。 したがって、技術開発の軌道に「波を押す」ことができます。 だがしかし:
a)私たちは、決定が人類、社会全体に属すると本当に信じています。
b)私たちは、ここで複雑なシステムを構築する多くのプレーヤーの1人になります。 さまざまなサービスを提供する競合する製品があり、さまざまなタイプの社会的支持者と反対者がおり、規制上の問題があります。
私は個人的にこの未来のビジョンについて深く心配しています、なぜなら将来、誰もが人間の友人よりもAIの友人に近づいてくるからです。 私は個人的にそれを望んでいません。 他の人がそれを望んでいると思いますし、そのようなものを作る人もいます。 それが世界が望んでいることであり、それが理にかなっていると思うなら、私たちはそれをします。
安全なAIはラボで生まれていない
Q:シンプルなチャットボットができました。 現在蔓延している人工知能への恐怖を払拭できますか? **
サム・アルトマン:警戒が必要な状況を考えるのにそれほど想像力は必要ありません。 繰り返しになりますが、私たちは素晴らしい見通しと信じられないほど前向きな影響に非常に興奮しているので、これを行っています。 人類のためにこれらを追求しないのは道徳的な失敗でしょう。 しかし、私たちは直面しなければなりません-そしてこれは他の多くの技術で起こります-それに伴う欠点。
これは、リスクを考慮する必要があることを意味します。 自分の能力を測定し、リスクを軽減する方法でテクノロジーを構築しようとします。 次に、「これは新しいセキュリティ技術です」と言うと、他の人に渡します。
Q:どれがありますか? **
ミラ・ムラティ:それは単一の解決策ではありません。 データからモデル、製品のツール、そしてもちろんポリシーまで。 そして、私たちが構築しているこれらのテクノロジーに追いつくために、規制と社会のインフラストラクチャ全体について考えてください。
したがって、途中で具体的な安全対策が何であるかを考えるとき、最初にテクノロジーを展開し、ゆっくりと現実に触れることです。 それが実際のユースケースや業界にどのように影響するかを理解し、実際にその影響に対処します。 規制であろうと著作権であろうと、影響が何であれ、実際にそれらの影響を吸収し、対処し、ますます多くの機能を開発し続ける必要があります。 ラボでテクノロジーを構築し、真空状態で構築し-——現実世界と接触せず、現実世界の摩擦に触れないことは、テクノロジーを安全に展開するための良い方法ではないと思います。
サム・アルトマン:ミラの指摘は非常に重要です。 ラボで技術を「安全」にすることは非常に困難です。 社会は物事の使い方や適応の仕方が異なります。 AIを導入すればするほど、世界が使用するAIが増え、AIの安全性が高まり、「許容できないリスク許容度と、人々が心配する別のことが1つ、まったく問題ありません」と集合的に判断できると思います。 "
AIコンテンツに「透かし」を追加することは白黒ではありません
現在、少なくともOpenAIからは、画像やテキストを入力して「これはAIによって生成されたものですか?」と尋ねることができるツールはありません。 そうなんですか。 **
ミラ・ムラティ:私たちの技術は、画像に関してほぼ99%の信頼性があります。 しかし、私たちはまだテスト中です、それはまだ早いです。
Q:これはリリースする予定ですか? **
ミラ・ムラティ:はい。
Q:写真やテキストは大丈夫ですか? **
ミラ・ムラティ:言葉で、何が理にかなっているのかを理解する必要があります。 写真の場合、質問はもう少し簡単です。 私たちはしばしば実験を行い、何かを展開してフィードバックを得ます。 時々、私たちはそれを取り戻し、それをより良くし、そしてそれを再び展開します。
Sam Altman: コンテンツの「透かし」の概念について、誰もが同じ意見を持っているわけではありません。 生成するコンテンツに透かしを入れたくない人はたくさんいます。 さらに、それはすべてに非常に適応できるわけではありません。 たとえば、画像に透かしを入れることができるかもしれませんし、長いテキストに透かしを入れることができるかもしれませんし、短いテキストに透かしを入れることができないかもしれません。
だからこそ、私たちは対話の一部になりたいのです。 この時点で、私たちは社会の集合的な意志に従うことをいとわない。 白黒の問題ではないと思います。
AIは不平等を悪化させる可能性があります
Q:私たちは仕事の性質を変えようとしています。 この議論にさえ参加していない社会の大部分があります。 このような仕組みをどう開発し、他者を置き去りにすることなく、真により良い世界につながることを自発的に行うことができるでしょうか。
ミラ・ムラティ:これは、不平等を本当に悪化させ、人間と文明としての私たちにとって事態を悪化させる可能性のある究極のテクノロジーであることに完全に同意します。 それはまた驚くべきことであり、多くの創造性と生産性につながり、私たちの生活水準を向上させることができます。 たぶん、多くの人が週に8時間または100時間働きたくないでしょう。 たぶん、彼らは一日4時間働き、それから他の多くのことをしたいと思っています。
これは間違いなく労働力に多くの混乱を引き起こします。
サム・アルトマン:これは非常に重要な質問です。 すべての技術革命は雇用市場に影響を与えます。 私はまったく恐れていません。 実際、それは良いことだと思います、それは進歩する方法だと思います。 私たちは新しくてより良い仕事を見つけるでしょう。
私たちが社会として直面する必要があるのは、これが起こっているスピードだと思います。 私たちはこの変化について何かをしなければなりません。 人々にユニバーサルベーシックインカムを与えるだけでは十分ではありません。 人々は自律性とそれに影響を与える能力を持っている必要があり、私たちは一緒に未来のデザイナーになる必要があります。
あなたが言ったように、誰もがこれらの議論に参加しているわけではありませんが、毎年もっと参加しています。 このツールを人々の手に渡し、ChatGPTを何十億もの人々に届けることで、人々は何が来るのかを考え、会話に参加する機会が得られるだけでなく、人々はこのツールを使用して未来を推進することができます。 これは私たちにとって非常に重要です。