Bir sözcü, şirketin uç nokta kontrollerini test ederken yanlışlıkla tüm çalışanlar için dahili erişimi devre dışı bıraktığını söyledi.
CNBC tarafından aynı gün bildirildiği üzere Microsoft, 9 Kasım'da çalışanlarının ChatGPT ve diğer yapay zeka (AI) araçlarını kullanmasını kısa süreliğine engelledi.
CNBC, yapay zeka destekli sohbet robotu ChatGPT'ye o sırada Microsoft'un kurumsal cihazlarında erişilemediğini gösteren bir ekran görüntüsü gördüğünü iddia ediyor.
Microsoft ayrıca, güvenlik ve veri endişeleri nedeniyle "birçok yapay zeka aracının artık çalışanlar tarafından kullanılamadığını" söyleyerek dahili web sitesini güncelledi. "
Bildirim, Microsoft'un ChatGPT'nin ana şirketi OpenAI'ye yaptığı yatırımın yanı sıra ChatGPT'nin kendi yerleşik korumalarından bahsediyor. Ancak şirket çalışanlarını hizmeti ve rakiplerini kullanmamaları konusunda uyarıyor ve mesaj şöyle devam ediyor:
"ChatGPT... Üçüncü taraf harici hizmetler... Bu, gizlilik ve güvenlik riskleri nedeniyle idareli kullanmanız gerektiği anlamına gelir. Bu, Midjourney veya Replika gibi diğer harici AI hizmetleri için de geçerlidir. "
CNBC, Microsoft'un bildirimde yapay zeka destekli bir grafik tasarım aracı olan Canva'yı da kısaca adlandırdığını, ancak daha sonra ifadeyi mesajdan kaldırdığını söyledi.
Microsoft beklenmedik bir şekilde hizmeti engelledi
CNBC, Microsoft'un olayla ilgili bir rapor yayınladıktan sonra ChatGPT'ye erişimi yeniden başlattığını söyledi. Bir Microsoft temsilcisi CNBC'ye verdiği demeçte, şirketin güvenlik tehditlerini içerecek şekilde tasarlanmış bir uç nokta kontrol sistemini test ederken yanlışlıkla tüm çalışanlar üzerindeki kısıtlamaları etkinleştirdiğini söyledi.
Temsilci, Microsoft'un çalışanlarını ChatGPT Enterprise'ı ve kendi Bing Chat Enterprise'ını kullanmaya teşvik ettiğini ve hizmetlerin yüksek düzeyde gizlilik ve güvenlik sunduğunu belirtti.
Haber, Amerika Birleşik Devletleri'nde ve yurtdışında yapay zekanın gizliliği ve güvenliği ile ilgili yaygın endişelerin ortasında geliyor. Microsoft'un kısıtlayıcı politikası başlangıçta şirketin yapay zeka güvenliğinin mevcut durumundan memnuniyetsizliğini gösteriyor gibi görünse de, gerçekte gelecekteki güvenlik olaylarına karşı korunmak için kullanılabilecek bir kaynak gibi görünüyor.
View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Microsoft, hatayı sistem testine bağlayarak çalışanlarının ChatGPT'yi kullanmasını kısa süreliğine engelledi
Bir sözcü, şirketin uç nokta kontrollerini test ederken yanlışlıkla tüm çalışanlar için dahili erişimi devre dışı bıraktığını söyledi.
CNBC tarafından aynı gün bildirildiği üzere Microsoft, 9 Kasım'da çalışanlarının ChatGPT ve diğer yapay zeka (AI) araçlarını kullanmasını kısa süreliğine engelledi.
CNBC, yapay zeka destekli sohbet robotu ChatGPT'ye o sırada Microsoft'un kurumsal cihazlarında erişilemediğini gösteren bir ekran görüntüsü gördüğünü iddia ediyor.
Microsoft ayrıca, güvenlik ve veri endişeleri nedeniyle "birçok yapay zeka aracının artık çalışanlar tarafından kullanılamadığını" söyleyerek dahili web sitesini güncelledi. "
Bildirim, Microsoft'un ChatGPT'nin ana şirketi OpenAI'ye yaptığı yatırımın yanı sıra ChatGPT'nin kendi yerleşik korumalarından bahsediyor. Ancak şirket çalışanlarını hizmeti ve rakiplerini kullanmamaları konusunda uyarıyor ve mesaj şöyle devam ediyor:
"ChatGPT... Üçüncü taraf harici hizmetler... Bu, gizlilik ve güvenlik riskleri nedeniyle idareli kullanmanız gerektiği anlamına gelir. Bu, Midjourney veya Replika gibi diğer harici AI hizmetleri için de geçerlidir. "
CNBC, Microsoft'un bildirimde yapay zeka destekli bir grafik tasarım aracı olan Canva'yı da kısaca adlandırdığını, ancak daha sonra ifadeyi mesajdan kaldırdığını söyledi.
Microsoft beklenmedik bir şekilde hizmeti engelledi
CNBC, Microsoft'un olayla ilgili bir rapor yayınladıktan sonra ChatGPT'ye erişimi yeniden başlattığını söyledi. Bir Microsoft temsilcisi CNBC'ye verdiği demeçte, şirketin güvenlik tehditlerini içerecek şekilde tasarlanmış bir uç nokta kontrol sistemini test ederken yanlışlıkla tüm çalışanlar üzerindeki kısıtlamaları etkinleştirdiğini söyledi.
Temsilci, Microsoft'un çalışanlarını ChatGPT Enterprise'ı ve kendi Bing Chat Enterprise'ını kullanmaya teşvik ettiğini ve hizmetlerin yüksek düzeyde gizlilik ve güvenlik sunduğunu belirtti.
Haber, Amerika Birleşik Devletleri'nde ve yurtdışında yapay zekanın gizliliği ve güvenliği ile ilgili yaygın endişelerin ortasında geliyor. Microsoft'un kısıtlayıcı politikası başlangıçta şirketin yapay zeka güvenliğinin mevcut durumundan memnuniyetsizliğini gösteriyor gibi görünse de, gerçekte gelecekteki güvenlik olaylarına karşı korunmak için kullanılabilecek bir kaynak gibi görünüyor.