広報担当者によると、同社はエンドポイント制御のテスト中に、すべての従業員の内部アクセスを誤って無効にしてしまったという。 CNBCが同日に報じたように、Microsoftは11月9日、従業員がChatGPTやその他の人工知能(AI)ツールを使用することを一時的にブロックしました。CNBCは、AIを搭載したチャットボット「ChatGPT」が当時、Microsoftのエンタープライズデバイスでアクセスできなかったことを示すスクリーンショットを見たと主張しています。Microsoftはまた、セキュリティとデータの懸念から、「多くのAIツールが従業員に提供されなくなった」と述べ、社内Webサイトを更新しました。 "この通知では、ChatGPT の親会社である OpenAI への Microsoft の投資と、ChatGPT 独自の組み込み保護について言及しています。 ただし、会社の従業員にサービスとその競合他社を使用しないように警告し、メッセージは続きます。「ChatGPTは... サードパーティの外部サービス... これは、プライバシーとセキュリティのリスクがあるため、慎重に使用する必要があることを意味します。 これは、Midjourney(ミッドジャーニー)やReplika(レプリカ)など、他の外部AIサービスにも当てはまります。 "CNBCによると、Microsoftは通知の中でAI搭載のグラフィックデザインツールであるCanvaも簡単に名指ししていたが、後にメッセージからこのフレーズを削除したという。**Microsoft が予期せずサービスをブロックしました**CNBCによると、Microsoftはインシデントのレポートを公開した後、ChatGPTへのアクセスを再開しました。 マイクロソフトの担当者がCNBCに語ったところによると、同社はセキュリティ上の脅威を封じ込めるために設計されたエンドポイント制御システムをテスト中に、誤ってすべての従業員に対する制限を有効にしてしまったという。代表者は、マイクロソフトは従業員にChatGPT Enterpriseと独自のBing Chat Enterpriseの使用を奨励していると述べ、これらのサービスは高レベルのプライバシーとセキュリティを提供すると指摘した。このニュースは、米国および海外でAIのプライバシーとセキュリティに関する懸念が広がっている中で発表されました。 Microsoftの制限的なポリシーは、当初、AIセキュリティの現状に対する同社の不満を示しているように見えましたが、実際には、将来のセキュリティインシデントから保護するために使用できるリソースのようです。
Microsoftは、従業員がChatGPTを使用することを一時的にブロックし、エラーをシステムテストに起因させました
広報担当者によると、同社はエンドポイント制御のテスト中に、すべての従業員の内部アクセスを誤って無効にしてしまったという。
CNBCが同日に報じたように、Microsoftは11月9日、従業員がChatGPTやその他の人工知能(AI)ツールを使用することを一時的にブロックしました。
CNBCは、AIを搭載したチャットボット「ChatGPT」が当時、Microsoftのエンタープライズデバイスでアクセスできなかったことを示すスクリーンショットを見たと主張しています。
Microsoftはまた、セキュリティとデータの懸念から、「多くのAIツールが従業員に提供されなくなった」と述べ、社内Webサイトを更新しました。 "
この通知では、ChatGPT の親会社である OpenAI への Microsoft の投資と、ChatGPT 独自の組み込み保護について言及しています。 ただし、会社の従業員にサービスとその競合他社を使用しないように警告し、メッセージは続きます。
「ChatGPTは... サードパーティの外部サービス... これは、プライバシーとセキュリティのリスクがあるため、慎重に使用する必要があることを意味します。 これは、Midjourney(ミッドジャーニー)やReplika(レプリカ)など、他の外部AIサービスにも当てはまります。 "
CNBCによると、Microsoftは通知の中でAI搭載のグラフィックデザインツールであるCanvaも簡単に名指ししていたが、後にメッセージからこのフレーズを削除したという。
Microsoft が予期せずサービスをブロックしました
CNBCによると、Microsoftはインシデントのレポートを公開した後、ChatGPTへのアクセスを再開しました。 マイクロソフトの担当者がCNBCに語ったところによると、同社はセキュリティ上の脅威を封じ込めるために設計されたエンドポイント制御システムをテスト中に、誤ってすべての従業員に対する制限を有効にしてしまったという。
代表者は、マイクロソフトは従業員にChatGPT Enterpriseと独自のBing Chat Enterpriseの使用を奨励していると述べ、これらのサービスは高レベルのプライバシーとセキュリティを提供すると指摘した。
このニュースは、米国および海外でAIのプライバシーとセキュリティに関する懸念が広がっている中で発表されました。 Microsoftの制限的なポリシーは、当初、AIセキュリティの現状に対する同社の不満を示しているように見えましたが、実際には、将来のセキュリティインシデントから保護するために使用できるリソースのようです。