Прес-секретар сказав, що компанія ненавмисно відключила внутрішній доступ для всіх співробітників під час тестування елементів керування кінцевими точками.
Як повідомляв CNBC того ж дня, 9 листопада Microsoft ненадовго заблокувала своїм співробітникам використання ChatGPT та інших інструментів штучного інтелекту (ШІ).
CNBC стверджує, що бачив скріншот, на якому видно, що чат-бот ChatGPT на основі штучного інтелекту на той час був недоступний на корпоративних пристроях Microsoft.
Microsoft також оновила свій внутрішній веб-сайт, заявивши, що «багато інструментів штучного інтелекту більше не доступні для співробітників» через проблеми з безпекою та даними. "
У повідомленні згадуються інвестиції Microsoft у материнську компанію ChatGPT, OpenAI, а також власний вбудований захист ChatGPT. Однак він застерігає співробітників компанії не користуватися сервісом та його конкурентами, і повідомлення продовжується:
"ChatGPT - це... Сторонні зовнішні сервіси... Це означає, що ви повинні використовувати його економно через ризики конфіденційності та безпеки. Це також стосується будь-яких інших зовнішніх сервісів штучного інтелекту, таких як Midjourney або Replika. "
CNBC повідомила, що Microsoft також коротко назвала Canva, інструмент графічного дизайну на основі штучного інтелекту, у повідомленні, але пізніше видалила цю фразу з повідомлення.
Корпорація Майкрософт несподівано заблокувала службу
CNBC повідомила, що Microsoft відновила доступ до ChatGPT після публікації звіту про інцидент. Представник Microsoft повідомив CNBC, що компанія ненавмисно активувала обмеження для всіх співробітників під час тестування системи контролю кінцевих точок, призначеної для стримування загроз безпеці.
Представник сказав, що Microsoft заохочує своїх співробітників використовувати ChatGPT Enterprise і власний Bing Chat Enterprise, зазначивши, що сервіси пропонують високий рівень конфіденційності та безпеки.
Ця новина з'явилася на тлі широко поширеного занепокоєння щодо конфіденційності та безпеки штучного інтелекту в Сполучених Штатах і за кордоном. Хоча обмежувальна політика Microsoft спочатку, здавалося, вказувала на невдоволення компанії поточним станом безпеки ШІ, насправді це схоже на ресурс, який можна використовувати для захисту від майбутніх інцидентів безпеки.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Microsoft ненадовго заблокувала своїм співробітникам використання ChatGPT, списавши помилку на тестування системи
Прес-секретар сказав, що компанія ненавмисно відключила внутрішній доступ для всіх співробітників під час тестування елементів керування кінцевими точками.
Як повідомляв CNBC того ж дня, 9 листопада Microsoft ненадовго заблокувала своїм співробітникам використання ChatGPT та інших інструментів штучного інтелекту (ШІ).
CNBC стверджує, що бачив скріншот, на якому видно, що чат-бот ChatGPT на основі штучного інтелекту на той час був недоступний на корпоративних пристроях Microsoft.
Microsoft також оновила свій внутрішній веб-сайт, заявивши, що «багато інструментів штучного інтелекту більше не доступні для співробітників» через проблеми з безпекою та даними. "
У повідомленні згадуються інвестиції Microsoft у материнську компанію ChatGPT, OpenAI, а також власний вбудований захист ChatGPT. Однак він застерігає співробітників компанії не користуватися сервісом та його конкурентами, і повідомлення продовжується:
"ChatGPT - це... Сторонні зовнішні сервіси... Це означає, що ви повинні використовувати його економно через ризики конфіденційності та безпеки. Це також стосується будь-яких інших зовнішніх сервісів штучного інтелекту, таких як Midjourney або Replika. "
CNBC повідомила, що Microsoft також коротко назвала Canva, інструмент графічного дизайну на основі штучного інтелекту, у повідомленні, але пізніше видалила цю фразу з повідомлення.
Корпорація Майкрософт несподівано заблокувала службу
CNBC повідомила, що Microsoft відновила доступ до ChatGPT після публікації звіту про інцидент. Представник Microsoft повідомив CNBC, що компанія ненавмисно активувала обмеження для всіх співробітників під час тестування системи контролю кінцевих точок, призначеної для стримування загроз безпеці.
Представник сказав, що Microsoft заохочує своїх співробітників використовувати ChatGPT Enterprise і власний Bing Chat Enterprise, зазначивши, що сервіси пропонують високий рівень конфіденційності та безпеки.
Ця новина з'явилася на тлі широко поширеного занепокоєння щодо конфіденційності та безпеки штучного інтелекту в Сполучених Штатах і за кордоном. Хоча обмежувальна політика Microsoft спочатку, здавалося, вказувала на невдоволення компанії поточним станом безпеки ШІ, насправді це схоже на ресурс, який можна використовувати для захисту від майбутніх інцидентів безпеки.