ChatGPT は最近、Microsoft!GPT によって内部的に禁止されました。

来源:量子位

画像出典:Unbounded AIによって生成

注: GPT の作成時にアップロードしたデータは、誰でも簡単にダウンロードできます。.

たった2つのプロンプトで、あなたは連れ去られることができます!

一方、OpenAIの最も緊密な同盟国であるMicrosoftは、かつて社内で緊急に禁止されており、その理由はWebサイトに示されています。

セキュリティとデータに関する懸念から、多くのAIツールが従業員は利用できなくなりました。

GPTのカスタマイズ版が発売されて以来、さまざまな神々がGPTのライブリンクを共有しています。

その結果、一部のネチズンがGPTの1つの背後にあるナレッジベースファイルを誤って拾い上げ、その中のさまざまな主要なテクノロジー企業のランクと給与のデータが直接公開されました...

いくつかの簡単なプロンプトで、GPTは素直にアップロードします。

一部のネチズンは次のように述べています。 これは新しいセキュリティの脆弱性ですか? 多くの人々は、企業向けのカスタマイズについて心配し始めています。

OpenAIの最も緊密な同盟国であるMicrosoftでさえ、ChatGPTへの内部アクセスを一時的にキャンセル**していることは注目に値します。

データとプロンプトが漏洩

前述したように、ユーザーはボットの ID や言語機能を詳細にカスタマイズし、独自のナレッジ ベースを構築できます。

GPT Builderの指導の下、自然言語で簡単に説明され、GPT Builderは自分のナレッジベースを除くほとんどの設定を自動化できます。

カスタマイズされたGPTは、自分で使用することも、リンクを他の人と共有することもできます。

しかし、ここに問題があります。

ある開発者は、それらを使用して、データの視覚化を分析し、リンクを一般に公開できるLevels.fyi用の基本的なGPTを作成しました。

その結果、ネチズンは、いくつかの単語を尋ねるだけでファイルをダウンロードできることを発見しました。

しばらくの間、ネチズンは唖然としました:これは制限されるべきですよね?

しかし、これはバグではなく、彼の機能であると考える人もいます。 ファイル内のデータは公開されている必要があります。

また、セットアップ時にコードインタープリターのチェックを外す機能という解決策を直接提供した熱狂的なネチズンもいます。

しかし、たとえそれが誰かに取られていなくても、あなたがアップロードしたデータはOpenAIの堀の水になります。

さらに、一部のネチズンは、プロンプトの説明のテキストも漏洩する可能性があることを発見しました。

ただし、カスタマイジング時にルールを明示的に設定し、それを正常にブロックできるという解決策があります。

Microsoft は ChatGPT へのアクセスを内部的に制限しています

デビューから3日後の昨日、GPTは有料ユーザーに完全に開放されました。

OpenAI は、数学の家庭教師、料理アシスタント、交渉の専門家など、ユーザーが使用できるように、GPT ページにいくつかのカスタマイズされたバージョンのロボットを公式に用意しています。

しかし、これはユーザーの好奇心を満たすにはほど遠いものであり、1日も経たないうちに、開発者はすでにこの機能で多くの奇妙なことをしています。

真面目で真面目で、人々が率先して履歴書を書いたり修正したりするのを手伝ってくれる人がいます。

もう少し活発な量子ビットには「パパのスピーチスコアリング」があることが観察されており、ユーザーが迷惑なPUAの説教に効果的に反撃するのに役立ちます。

もう少し形而上学的なもので、MBTI16の性格分析やタロットカード占いなど、そういったものもあるでしょう。

一言で言えば、みんなとても楽しかったです。

ただし、まだ3時間50個の制限があるため、多くのネチズンは、GPTをプレイするときに毎日この制限をトリガーするのは簡単であるとため息をつくしかありません。

しかし、一部のネチズンはまだ留保しており、これは以前のChatGPTの出現のピークのようになり、その後徐々に静かな期間に戻ると信じています。

同時に、マスク氏はGPTに対する態度、つまりGPTを軽蔑していることを明確に表明しています。

彼は、GrokをGPTでこすったAltmanのツイートを直接引用し、「GPT」を「GPT-Snore」と不用意に解釈しました。

もう一人の大物モデル、グロク(Grok)のボスとして、常に口を開けているマスクが、これほど陰と陽を隠すのは、それほど珍しいことではないようだ。

最も目を見張るものは、一昨日、つまりOpenAIがハッキングされた日、Microsoftがかつて従業員にChatGPTの使用を禁止したことです。

はい、そうです、OpenAIの最大のパートナーであり株主であるMicrosoftは、従業員がChatGPTにアクセスすることを禁止しました。

Microsoftは社内Webサイトに次のように書いていると報告されています。

セキュリティとデータ上の懸念から、一部のAIツールは今後従業員が利用できなくなります。

ChatGPTとデザインWebサイトCanvaによって名前が付けられているAIツールは何ですか。

その後、ChatGPT は Microsoft 従業員の内部デバイスでブロックされました。

それだけでなく、マイクロソフトは当時、OpenAIに投資したが、マイクロソフトの人々にとって、ChatGPTはサードパーティのツールであるとも言っていました。

従業員は、Midjourneyのような外部のAIツールを使用する場合と同じ注意を払って使用する必要があります。

しかし、この禁止令は長くは続かなかった。

すぐに、ChatGPTへの従業員のアクセスが回復し、公式声明はそれが単なる美しい誤解であったと述べていますが、それでも私はすべての人にBing(doge)をお勧めします。

LLMの端末制御システムをテストしており、すべてのユーザーに対してこのオプションを誤ってオンにしました。 エラーが発覚して間もなく、サービスを再開しました。 > >前にも述べたように、従業員やお客様には、Bing Chat Enterprise や ChatGPT Enterprise など、より高いレベルのプライバシーとセキュリティ保護を備えたサービスを利用することをお勧めします。

外界の「美貌」の噂を断ち切るためかどうかはわかりませんが、ウルトラマンもこの事件でOpenAIに心理的な揺らぎがなかったことを証明するために個人的にツイートしましたし、OpenAIが対応としてMicrosoft 365を禁止したという噂はさらにナンセンスです。

しかし、今回の一連の事件では、「プライバシー」と「データセキュリティ」の問題を避けて通ることはできません。

つまり、今や巨人や企業だけでなく、前述のようにChatGPT/GPTの利用には「内部データ共有」の危険性が隠れていることがわかっただけでなく、起業家や開発者、さらには一般ユーザーもこの問題を目の前に発見しているのです。

そこで、新たな議論が本格化しています。

GPTにユーザーがアップロードしたデータや文書が非公開であることが保証されない場合、どのように次の事業化に踏み出すことができるのでしょうか?

ChatGPT時代に「App Store」を作りたいOpenAIにとって、これは良いことではないようです。

しかし、それはまだ始まったばかりなので、しばらくの間弾丸を飛ばすためのOpenAIのフォローアップ救済策を見てみましょう。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)