Seorang juru bicara mengatakan perusahaan secara tidak sengaja menonaktifkan akses internal untuk semua karyawan saat menguji kontrol titik akhir.
Seperti dilansir CNBC pada hari yang sama, Microsoft sempat memblokir karyawannya untuk menggunakan ChatGPT dan alat kecerdasan buatan (AI) lainnya pada 9 November.
CNBC mengklaim telah melihat tangkapan layar yang menunjukkan bahwa chatbot bertenaga AI ChatGPT tidak dapat diakses di perangkat perusahaan Microsoft pada saat itu.
Microsoft juga memperbarui situs web internalnya, mengatakan bahwa "banyak alat AI tidak lagi tersedia untuk karyawan" karena masalah keamanan dan data. "
Pemberitahuan tersebut menyebutkan investasi Microsoft di perusahaan induk ChatGPT, OpenAI, serta perlindungan bawaan ChatGPT sendiri. Namun, ia memperingatkan karyawan perusahaan untuk tidak menggunakan layanan dan pesaingnya, dan pesan berlanjut:
"ChatGPT adalah... Layanan eksternal pihak ketiga... Ini berarti Anda harus menggunakannya dengan hemat karena risiko privasi dan keamanan. Ini juga berlaku untuk layanan AI eksternal lainnya, seperti Midjourney atau Replika. "
CNBC mengatakan Microsoft juga secara singkat menyebut Canva, alat desain grafis bertenaga AI, dalam pemberitahuan itu, tetapi kemudian menghapus frasa itu dari pesan.
Microsoft tiba-tiba memblokir layanan
CNBC mengatakan Microsoft melanjutkan akses ke ChatGPT setelah menerbitkan laporan insiden tersebut. Seorang perwakilan Microsoft mengatakan kepada CNBC bahwa perusahaan secara tidak sengaja mengaktifkan pembatasan pada semua karyawan saat menguji sistem kontrol titik akhir yang dirancang untuk mengandung ancaman keamanan.
Perwakilan itu mengatakan Microsoft mendorong karyawannya untuk menggunakan ChatGPT Enterprise dan Bing Chat Enterprise miliknya sendiri, mencatat bahwa layanan tersebut menawarkan tingkat privasi dan keamanan yang tinggi.
Berita itu muncul di tengah kekhawatiran luas tentang privasi dan keamanan AI di Amerika Serikat dan luar negeri. Sementara kebijakan pembatasan Microsoft pada awalnya tampaknya menunjukkan ketidakpuasan perusahaan dengan keadaan keamanan AI saat ini, pada kenyataannya itu tampaknya menjadi sumber daya yang dapat digunakan untuk melindungi terhadap insiden keamanan di masa depan.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Microsoft secara singkat memblokir karyawannya dari menggunakan ChatGPT, menghubungkan kesalahan dengan pengujian sistem
Seorang juru bicara mengatakan perusahaan secara tidak sengaja menonaktifkan akses internal untuk semua karyawan saat menguji kontrol titik akhir.
Seperti dilansir CNBC pada hari yang sama, Microsoft sempat memblokir karyawannya untuk menggunakan ChatGPT dan alat kecerdasan buatan (AI) lainnya pada 9 November.
CNBC mengklaim telah melihat tangkapan layar yang menunjukkan bahwa chatbot bertenaga AI ChatGPT tidak dapat diakses di perangkat perusahaan Microsoft pada saat itu.
Microsoft juga memperbarui situs web internalnya, mengatakan bahwa "banyak alat AI tidak lagi tersedia untuk karyawan" karena masalah keamanan dan data. "
Pemberitahuan tersebut menyebutkan investasi Microsoft di perusahaan induk ChatGPT, OpenAI, serta perlindungan bawaan ChatGPT sendiri. Namun, ia memperingatkan karyawan perusahaan untuk tidak menggunakan layanan dan pesaingnya, dan pesan berlanjut:
"ChatGPT adalah... Layanan eksternal pihak ketiga... Ini berarti Anda harus menggunakannya dengan hemat karena risiko privasi dan keamanan. Ini juga berlaku untuk layanan AI eksternal lainnya, seperti Midjourney atau Replika. "
CNBC mengatakan Microsoft juga secara singkat menyebut Canva, alat desain grafis bertenaga AI, dalam pemberitahuan itu, tetapi kemudian menghapus frasa itu dari pesan.
Microsoft tiba-tiba memblokir layanan
CNBC mengatakan Microsoft melanjutkan akses ke ChatGPT setelah menerbitkan laporan insiden tersebut. Seorang perwakilan Microsoft mengatakan kepada CNBC bahwa perusahaan secara tidak sengaja mengaktifkan pembatasan pada semua karyawan saat menguji sistem kontrol titik akhir yang dirancang untuk mengandung ancaman keamanan.
Perwakilan itu mengatakan Microsoft mendorong karyawannya untuk menggunakan ChatGPT Enterprise dan Bing Chat Enterprise miliknya sendiri, mencatat bahwa layanan tersebut menawarkan tingkat privasi dan keamanan yang tinggi.
Berita itu muncul di tengah kekhawatiran luas tentang privasi dan keamanan AI di Amerika Serikat dan luar negeri. Sementara kebijakan pembatasan Microsoft pada awalnya tampaknya menunjukkan ketidakpuasan perusahaan dengan keadaan keamanan AI saat ini, pada kenyataannya itu tampaknya menjadi sumber daya yang dapat digunakan untuk melindungi terhadap insiden keamanan di masa depan.