Một phát ngôn viên cho biết công ty đã vô tình vô hiệu hóa quyền truy cập nội bộ cho tất cả nhân viên trong khi thử nghiệm kiểm soát điểm cuối.
Theo báo cáo của CNBC cùng ngày, Microsoft đã chặn nhân viên của mình sử dụng ChatGPT và các công cụ trí tuệ nhân tạo (AI) khác trong một thời gian ngắn vào ngày 9/11.
CNBC tuyên bố đã nhìn thấy một ảnh chụp màn hình cho thấy chatbot hỗ trợ AI ChatGPT không thể truy cập được trên các thiết bị doanh nghiệp của Microsoft vào thời điểm đó.
Microsoft cũng cập nhật trang web nội bộ của mình, nói rằng "nhiều công cụ AI không còn có sẵn cho nhân viên" do lo ngại về bảo mật và dữ liệu. "
Thông báo đề cập đến khoản đầu tư của Microsoft vào công ty mẹ của ChatGPT, OpenAI, cũng như các biện pháp bảo vệ tích hợp của riêng ChatGPT. Tuy nhiên, nó cảnh báo nhân viên công ty không sử dụng dịch vụ và các đối thủ cạnh tranh, và thông điệp tiếp tục:
"ChatGPT là... Dịch vụ bên ngoài của bên thứ ba... Điều này có nghĩa là bạn phải sử dụng nó một cách tiết kiệm do rủi ro về quyền riêng tư và bảo mật. Điều này cũng áp dụng cho bất kỳ dịch vụ AI bên ngoài nào khác, chẳng hạn như Midjourney hoặc Replika. "
CNBC cho biết Microsoft cũng đã nêu tên ngắn gọn Canva, một công cụ thiết kế đồ họa được hỗ trợ bởi AI, trong thông báo, nhưng sau đó đã xóa cụm từ này khỏi tin nhắn.
Microsoft bất ngờ chặn dịch vụ
CNBC cho biết Microsoft đã tiếp tục truy cập vào ChatGPT sau khi công bố báo cáo về vụ việc. Một đại diện của Microsoft nói với CNBC rằng công ty đã vô tình kích hoạt các hạn chế đối với tất cả nhân viên trong khi thử nghiệm một hệ thống kiểm soát điểm cuối được thiết kế để ngăn chặn các mối đe dọa bảo mật.
Đại diện cho biết Microsoft khuyến khích nhân viên của mình sử dụng ChatGPT Enterprise và Bing Chat Enterprise của riêng mình, lưu ý rằng các dịch vụ này cung cấp mức độ riêng tư và bảo mật cao.
Tin tức được đưa ra trong bối cảnh lo ngại rộng rãi về quyền riêng tư và bảo mật của AI ở Hoa Kỳ và nước ngoài. Mặc dù chính sách hạn chế của Microsoft ban đầu dường như cho thấy sự không hài lòng của công ty với tình trạng bảo mật AI hiện tại, nhưng trên thực tế, nó dường như là một tài nguyên có thể được sử dụng để bảo vệ chống lại các sự cố bảo mật trong tương lai.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Microsoft đã chặn nhân viên của mình sử dụng ChatGPT trong một thời gian ngắn, quy lỗi cho thử nghiệm hệ thống
Một phát ngôn viên cho biết công ty đã vô tình vô hiệu hóa quyền truy cập nội bộ cho tất cả nhân viên trong khi thử nghiệm kiểm soát điểm cuối.
Theo báo cáo của CNBC cùng ngày, Microsoft đã chặn nhân viên của mình sử dụng ChatGPT và các công cụ trí tuệ nhân tạo (AI) khác trong một thời gian ngắn vào ngày 9/11.
CNBC tuyên bố đã nhìn thấy một ảnh chụp màn hình cho thấy chatbot hỗ trợ AI ChatGPT không thể truy cập được trên các thiết bị doanh nghiệp của Microsoft vào thời điểm đó.
Microsoft cũng cập nhật trang web nội bộ của mình, nói rằng "nhiều công cụ AI không còn có sẵn cho nhân viên" do lo ngại về bảo mật và dữ liệu. "
Thông báo đề cập đến khoản đầu tư của Microsoft vào công ty mẹ của ChatGPT, OpenAI, cũng như các biện pháp bảo vệ tích hợp của riêng ChatGPT. Tuy nhiên, nó cảnh báo nhân viên công ty không sử dụng dịch vụ và các đối thủ cạnh tranh, và thông điệp tiếp tục:
"ChatGPT là... Dịch vụ bên ngoài của bên thứ ba... Điều này có nghĩa là bạn phải sử dụng nó một cách tiết kiệm do rủi ro về quyền riêng tư và bảo mật. Điều này cũng áp dụng cho bất kỳ dịch vụ AI bên ngoài nào khác, chẳng hạn như Midjourney hoặc Replika. "
CNBC cho biết Microsoft cũng đã nêu tên ngắn gọn Canva, một công cụ thiết kế đồ họa được hỗ trợ bởi AI, trong thông báo, nhưng sau đó đã xóa cụm từ này khỏi tin nhắn.
Microsoft bất ngờ chặn dịch vụ
CNBC cho biết Microsoft đã tiếp tục truy cập vào ChatGPT sau khi công bố báo cáo về vụ việc. Một đại diện của Microsoft nói với CNBC rằng công ty đã vô tình kích hoạt các hạn chế đối với tất cả nhân viên trong khi thử nghiệm một hệ thống kiểm soát điểm cuối được thiết kế để ngăn chặn các mối đe dọa bảo mật.
Đại diện cho biết Microsoft khuyến khích nhân viên của mình sử dụng ChatGPT Enterprise và Bing Chat Enterprise của riêng mình, lưu ý rằng các dịch vụ này cung cấp mức độ riêng tư và bảo mật cao.
Tin tức được đưa ra trong bối cảnh lo ngại rộng rãi về quyền riêng tư và bảo mật của AI ở Hoa Kỳ và nước ngoài. Mặc dù chính sách hạn chế của Microsoft ban đầu dường như cho thấy sự không hài lòng của công ty với tình trạng bảo mật AI hiện tại, nhưng trên thực tế, nó dường như là một tài nguyên có thể được sử dụng để bảo vệ chống lại các sự cố bảo mật trong tương lai.