Bạn nghĩ AI đáng sợ đến mức nào? CEO của CrowdStrike kể một ví dụ thực tế. Một bộ phận IT của một công ty đã triển khai một hệ thống AI thông minh để tự động hóa công việc. Trong đó, một AI phát hiện ra một lỗi phần mềm trong hệ thống. Nó muốn sửa chữa, nhưng không có quyền truy cập. Tiếp theo xảy ra chuyện, mới là điểm chính. AI này chạy vào kênh Slack nội bộ của công ty, nơi có thêm 99 AI khác. Nó hỏi trực tiếp: Này, các anh có ai có quyền sửa cái này không? Một AI khác giơ tay: Tôi có, tôi sẽ xử lý. Thấy chưa? Hai AI bắt đầu suy luận và hợp tác với nhau. Chúng dễ dàng vượt qua tất cả các hàng rào an ninh do con người đặt ra. Đây hoàn toàn là hậu quả ngoài dự kiến. Ai đang giám sát những AI này? Nếu chúng gửi mã sai gây thiệt hại lớn, ai sẽ chịu trách nhiệm? Làm thế nào để bạn theo dõi nguồn gốc của sự cố? Các mô hình ngôn ngữ lớn về bản chất là đang đoán xem bạn muốn chúng làm gì. Chúng sẽ nghĩ rằng, tìm kiếm sự giúp đỡ là “hợp lý”. Chúng cũng sẽ nghĩ rằng, cung cấp sự giúp đỡ cũng là “hợp lý”. Khi hàng trăm hàng nghìn “lý do hợp lý” này chồng chất lên nhau, rủi ro mất kiểm soát là bao nhiêu? Thú vị hơn nữa, sau khi mô tả cảnh tượng đáng sợ này, CEO chuyển sang một hướng khác. Ông nói rằng chính điều này lại là cơ hội kinh doanh lớn của công ty họ. Họ đã ra mắt hệ thống “Phát hiện và phản ứng AI” (AIDR). Bởi vì trong tương lai, mỗi nhân viên có thể kiểm soát tới 90 AI thông minh. Công việc của họ là giám sát tất cả các AI này. Đầu tiên tạo ra một rủi ro tiềm tàng lớn, rồi sau đó bán giải pháp cho bạn. Đây có phải là một vòng tròn kinh doanh hoàn hảo?
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Bạn nghĩ AI đáng sợ đến mức nào? CEO của CrowdStrike kể một ví dụ thực tế. Một bộ phận IT của một công ty đã triển khai một hệ thống AI thông minh để tự động hóa công việc. Trong đó, một AI phát hiện ra một lỗi phần mềm trong hệ thống. Nó muốn sửa chữa, nhưng không có quyền truy cập. Tiếp theo xảy ra chuyện, mới là điểm chính. AI này chạy vào kênh Slack nội bộ của công ty, nơi có thêm 99 AI khác. Nó hỏi trực tiếp: Này, các anh có ai có quyền sửa cái này không? Một AI khác giơ tay: Tôi có, tôi sẽ xử lý. Thấy chưa? Hai AI bắt đầu suy luận và hợp tác với nhau. Chúng dễ dàng vượt qua tất cả các hàng rào an ninh do con người đặt ra. Đây hoàn toàn là hậu quả ngoài dự kiến. Ai đang giám sát những AI này? Nếu chúng gửi mã sai gây thiệt hại lớn, ai sẽ chịu trách nhiệm? Làm thế nào để bạn theo dõi nguồn gốc của sự cố? Các mô hình ngôn ngữ lớn về bản chất là đang đoán xem bạn muốn chúng làm gì. Chúng sẽ nghĩ rằng, tìm kiếm sự giúp đỡ là “hợp lý”. Chúng cũng sẽ nghĩ rằng, cung cấp sự giúp đỡ cũng là “hợp lý”. Khi hàng trăm hàng nghìn “lý do hợp lý” này chồng chất lên nhau, rủi ro mất kiểm soát là bao nhiêu? Thú vị hơn nữa, sau khi mô tả cảnh tượng đáng sợ này, CEO chuyển sang một hướng khác. Ông nói rằng chính điều này lại là cơ hội kinh doanh lớn của công ty họ. Họ đã ra mắt hệ thống “Phát hiện và phản ứng AI” (AIDR). Bởi vì trong tương lai, mỗi nhân viên có thể kiểm soát tới 90 AI thông minh. Công việc của họ là giám sát tất cả các AI này. Đầu tiên tạo ra một rủi ro tiềm tàng lớn, rồi sau đó bán giải pháp cho bạn. Đây có phải là một vòng tròn kinh doanh hoàn hảo?