"Chúng tôi hiện không nghĩ đến việc điều chỉnh AI. Ở giai đoạn này, rõ ràng là chúng tôi muốn có thể học hỏi từ ngành công nghiệp. Hiểu cách AI đang được sử dụng trước khi chúng tôi quyết định liệu chúng tôi có cần làm nhiều hơn từ góc độ quản lý hay không."
Chính phủ Singapore kêu gọi các công ty hợp tác phát triển "bộ công cụ kiểm tra AI đầu tiên trên thế giới" AI Verify, và Google, Microsoft và IBM đều đã tham gia AI Verify Foundation.
Với nhiều quốc gia đang khám phá quy định về trí tuệ nhân tạo tổng quát (AI), chính phủ Singapore đã tuyên bố rằng họ không vội vàng xây dựng các quy định về trí tuệ nhân tạo.
Ngày 19/6 theo giờ địa phương, Lee Wan Sie, Giám đốc dữ liệu và trí tuệ nhân tạo đáng tin cậy tại Cơ quan Phát triển Truyền thông Thông tin và Truyền thông (IMDA) của Singapore, trả lời phỏng vấn CNBC: “Chúng tôi hiện chưa xem xét quy định về trí tuệ nhân tạo. "
Tuy nhiên, chính phủ Singapore cũng đang nỗ lực thúc đẩy việc sử dụng trí tuệ nhân tạo một cách có trách nhiệm, kêu gọi các công ty hợp tác để tạo ra AI Verify, "bộ công cụ kiểm tra AI đầu tiên trên thế giới". AI Verify, bao gồm khung thử nghiệm quản trị AI và bộ công cụ phần mềm cho phép người dùng kiểm tra kỹ thuật các mô hình AI và kiểm tra quy trình tài liệu, đã được triển khai như một dự án thử nghiệm vào năm 2022, với sự tham gia của những gã khổng lồ công nghệ IBM và Singapore Airlines.
Chính phủ và doanh nghiệp thiết lập hợp tác
Những lo ngại về rủi ro của AI tổng quát đã tăng lên trong những tháng gần đây khi chatbot ChatGPT đã trở thành cơn thịnh nộ. "Ở giai đoạn này, rõ ràng là chúng tôi muốn học hỏi từ ngành. Chúng tôi cần hiểu cách AI đang được sử dụng trước khi quyết định liệu chúng tôi có cần làm nhiều hơn từ phía quy định hay không", Li Wanshi cho biết.
"Chúng tôi nhận ra rằng với tư cách là một quốc gia nhỏ, với tư cách là một chính phủ, chúng tôi có thể không giải quyết được tất cả các vấn đề. Vì vậy, điều rất quan trọng là chúng tôi phải hợp tác chặt chẽ với ngành công nghiệp, các tổ chức nghiên cứu và các chính phủ khác", Li nói.
Được biết, Google, Microsoft và IBM đã tham gia AI Verify Foundation, một cộng đồng nguồn mở toàn cầu được thiết kế để thảo luận về các tiêu chuẩn AI và các phương pháp hay nhất cũng như hợp tác về quản trị AI. Chủ tịch Microsoft Brad Smith cho biết trong một thông cáo: "Microsoft hoan nghênh chính phủ Singapore vì sự lãnh đạo của họ trong lĩnh vực này. Bằng cách tạo ra các tài nguyên thiết thực như khung và bộ công cụ thử nghiệm quản trị AI, Singapore đang giúp các tổ chức thiết lập các quy trình thử nghiệm và quản trị mạnh mẽ."
"Ngành công nghiệp này thực tế hơn nhiều khi nói đến AI. Đôi khi, khi nói đến các quy định, bạn có thể thấy khoảng cách giữa những gì các nhà hoạch định chính sách nghĩ về AI và những gì các doanh nghiệp thực sự làm." Cố vấn Ủy ban Cố vấn AI Quốc gia Hoa Kỳ Haniyeh Mahmoudian nói CNBC, "Vì vậy, với kiểu hợp tác này, cụ thể là tạo ra các loại bộ công cụ này, với thông tin đầu vào từ ngành. Nó có lợi cho cả hai bên."
Tại hội nghị thượng đỉnh Asia Tech x Singapore vào tháng 6, Bộ trưởng Thông tin và Truyền thông Singapore Josephine Teo nói rằng mặc dù chính phủ nhận ra những rủi ro tiềm ẩn của AI, nhưng chính họ không thể tự mình thúc đẩy việc sử dụng AI một cách có đạo đức, "với sự chuyên nghiệp của khu vực tri thức tư nhân có thể tham gia một cách có ý nghĩa với chúng tôi để đạt được những mục tiêu này."
Bà nói: “Mặc dù có những nỗi sợ hãi và lo ngại rất thực tế về sự phát triển của AI, nhưng AI cần được tích cực hướng tới những mục đích sử dụng có lợi và tránh xa những mục đích xấu. "Đó là cốt lõi của cách Singapore nhìn nhận AI."
Trong khi đó, một số quốc gia đã thực hiện các bước để điều chỉnh AI. Vào ngày 14 tháng 6, Nghị viện Châu Âu đã thông qua "Đạo luật Trí tuệ Nhân tạo" (Đạo luật AI), áp đặt các hạn chế lớn hơn đối với các công cụ trí tuệ nhân tạo tổng quát như ChatGPT và các nhà phát triển sẽ được yêu cầu gửi hệ thống để xem xét trước khi phát hành. Tổng thống Pháp Emmanuel Macron tuần trước cũng cho biết cần có quy định về AI. Vương quốc Anh đang thành lập Lực lượng đặc nhiệm mô hình Quỹ AI để nghiên cứu các rủi ro bảo mật do trí tuệ nhân tạo mang lại và đang chuẩn bị cho Hội nghị thượng đỉnh về an ninh AI toàn cầu, nhằm biến nước này trở thành trung tâm địa lý của quy định an ninh AI toàn cầu.
Cha đẻ của ChatGPT phát biểu tại Singapore
Stella Cramer, người đứng đầu khu vực châu Á-Thái Bình Dương tại tập đoàn công nghệ của công ty luật quốc tế Clifford Chance, cho biết Singapore có thể đóng vai trò là "người quản lý" trong khu vực, cho phép đổi mới diễn ra trong một môi trường an toàn. Clifford Chance đang làm việc với các cơ quan quản lý để phát triển một loạt các hướng dẫn và khuôn khổ thị trường.
"Những gì chúng tôi thấy là một cách tiếp cận nhất quán xung quanh sự cởi mở và hợp tác. Singapore được coi là khu vực tài phán an toàn để thử nghiệm và triển khai công nghệ của bạn trong một môi trường được kiểm soát với sự hỗ trợ của các cơ quan quản lý," Cramer nói.
Ý tưởng này có vẻ trùng hợp với ý tưởng của CEO OpenAI Sam Altman (Sam Altman). Vào ngày 13 tháng 6, Altman đã tham dự sự kiện OpenAI's global tour "Fireside Dialogue" tại Đại học Quản lý Singapore (Singapore Management University), nơi ông trình bày chi tiết về cách quản lý rủi ro AI. Ông tin rằng trọng tâm là cho công chúng biết và trải nghiệm những phát triển mới, điều này sẽ đảm bảo rằng mọi tác hại tiềm tàng đều được phát hiện và giải quyết trước khi tác động của nó lan rộng.
Altman cho biết: "Việc này hiệu quả hơn việc phát triển và thử nghiệm một công nghệ đằng sau những cánh cửa đóng kín rồi công bố ra công chúng với giả định rằng tất cả các rủi ro có thể xảy ra đã được xác định và ngăn chặn". tìm cách khai thác nó theo cách mà những người tạo ra nó không bao giờ nghĩ là có thể.” Điều này đúng với bất kỳ công nghệ mới nào, ông lưu ý.
"Chúng tôi tin rằng triển khai lặp đi lặp lại là cách duy nhất để làm điều này." Altman nói thêm rằng việc giới thiệu dần dần các phiên bản mới cũng sẽ cho phép xã hội thích ứng khi AI phát triển, đồng thời tạo ra phản hồi về cách cải thiện nó.
Singapore hiện đã khởi động một số dự án thí điểm, chẳng hạn như Hộp cát điều tiết FinTech hoặc Hộp cát HealthTech, để các công ty trong ngành thử nghiệm sản phẩm của họ trong môi trường trực tiếp trước khi ra mắt công chúng. Cramer cho biết: “Các khung cấu trúc và bộ công cụ thử nghiệm này sẽ giúp hướng dẫn các chính sách quản trị AI để cho phép các doanh nghiệp phát triển AI một cách an toàn và bảo mật”.
Xem bản gốc
Nội dung chỉ mang tính chất tham khảo, không phải là lời chào mời hay đề nghị. Không cung cấp tư vấn về đầu tư, thuế hoặc pháp lý. Xem Tuyên bố miễn trừ trách nhiệm để biết thêm thông tin về rủi ro.
Chính phủ Singapore: hiện không có ý định điều chỉnh AI và đang cùng doanh nghiệp phát triển các công cụ thử nghiệm AI
Bản gốc: The Paper
Với nhiều quốc gia đang khám phá quy định về trí tuệ nhân tạo tổng quát (AI), chính phủ Singapore đã tuyên bố rằng họ không vội vàng xây dựng các quy định về trí tuệ nhân tạo.
Ngày 19/6 theo giờ địa phương, Lee Wan Sie, Giám đốc dữ liệu và trí tuệ nhân tạo đáng tin cậy tại Cơ quan Phát triển Truyền thông Thông tin và Truyền thông (IMDA) của Singapore, trả lời phỏng vấn CNBC: “Chúng tôi hiện chưa xem xét quy định về trí tuệ nhân tạo. "
Tuy nhiên, chính phủ Singapore cũng đang nỗ lực thúc đẩy việc sử dụng trí tuệ nhân tạo một cách có trách nhiệm, kêu gọi các công ty hợp tác để tạo ra AI Verify, "bộ công cụ kiểm tra AI đầu tiên trên thế giới". AI Verify, bao gồm khung thử nghiệm quản trị AI và bộ công cụ phần mềm cho phép người dùng kiểm tra kỹ thuật các mô hình AI và kiểm tra quy trình tài liệu, đã được triển khai như một dự án thử nghiệm vào năm 2022, với sự tham gia của những gã khổng lồ công nghệ IBM và Singapore Airlines.
Chính phủ và doanh nghiệp thiết lập hợp tác
Những lo ngại về rủi ro của AI tổng quát đã tăng lên trong những tháng gần đây khi chatbot ChatGPT đã trở thành cơn thịnh nộ. "Ở giai đoạn này, rõ ràng là chúng tôi muốn học hỏi từ ngành. Chúng tôi cần hiểu cách AI đang được sử dụng trước khi quyết định liệu chúng tôi có cần làm nhiều hơn từ phía quy định hay không", Li Wanshi cho biết.
"Chúng tôi nhận ra rằng với tư cách là một quốc gia nhỏ, với tư cách là một chính phủ, chúng tôi có thể không giải quyết được tất cả các vấn đề. Vì vậy, điều rất quan trọng là chúng tôi phải hợp tác chặt chẽ với ngành công nghiệp, các tổ chức nghiên cứu và các chính phủ khác", Li nói.
Được biết, Google, Microsoft và IBM đã tham gia AI Verify Foundation, một cộng đồng nguồn mở toàn cầu được thiết kế để thảo luận về các tiêu chuẩn AI và các phương pháp hay nhất cũng như hợp tác về quản trị AI. Chủ tịch Microsoft Brad Smith cho biết trong một thông cáo: "Microsoft hoan nghênh chính phủ Singapore vì sự lãnh đạo của họ trong lĩnh vực này. Bằng cách tạo ra các tài nguyên thiết thực như khung và bộ công cụ thử nghiệm quản trị AI, Singapore đang giúp các tổ chức thiết lập các quy trình thử nghiệm và quản trị mạnh mẽ."
"Ngành công nghiệp này thực tế hơn nhiều khi nói đến AI. Đôi khi, khi nói đến các quy định, bạn có thể thấy khoảng cách giữa những gì các nhà hoạch định chính sách nghĩ về AI và những gì các doanh nghiệp thực sự làm." Cố vấn Ủy ban Cố vấn AI Quốc gia Hoa Kỳ Haniyeh Mahmoudian nói CNBC, "Vì vậy, với kiểu hợp tác này, cụ thể là tạo ra các loại bộ công cụ này, với thông tin đầu vào từ ngành. Nó có lợi cho cả hai bên."
Tại hội nghị thượng đỉnh Asia Tech x Singapore vào tháng 6, Bộ trưởng Thông tin và Truyền thông Singapore Josephine Teo nói rằng mặc dù chính phủ nhận ra những rủi ro tiềm ẩn của AI, nhưng chính họ không thể tự mình thúc đẩy việc sử dụng AI một cách có đạo đức, "với sự chuyên nghiệp của khu vực tri thức tư nhân có thể tham gia một cách có ý nghĩa với chúng tôi để đạt được những mục tiêu này."
Bà nói: “Mặc dù có những nỗi sợ hãi và lo ngại rất thực tế về sự phát triển của AI, nhưng AI cần được tích cực hướng tới những mục đích sử dụng có lợi và tránh xa những mục đích xấu. "Đó là cốt lõi của cách Singapore nhìn nhận AI."
Trong khi đó, một số quốc gia đã thực hiện các bước để điều chỉnh AI. Vào ngày 14 tháng 6, Nghị viện Châu Âu đã thông qua "Đạo luật Trí tuệ Nhân tạo" (Đạo luật AI), áp đặt các hạn chế lớn hơn đối với các công cụ trí tuệ nhân tạo tổng quát như ChatGPT và các nhà phát triển sẽ được yêu cầu gửi hệ thống để xem xét trước khi phát hành. Tổng thống Pháp Emmanuel Macron tuần trước cũng cho biết cần có quy định về AI. Vương quốc Anh đang thành lập Lực lượng đặc nhiệm mô hình Quỹ AI để nghiên cứu các rủi ro bảo mật do trí tuệ nhân tạo mang lại và đang chuẩn bị cho Hội nghị thượng đỉnh về an ninh AI toàn cầu, nhằm biến nước này trở thành trung tâm địa lý của quy định an ninh AI toàn cầu.
Cha đẻ của ChatGPT phát biểu tại Singapore
Stella Cramer, người đứng đầu khu vực châu Á-Thái Bình Dương tại tập đoàn công nghệ của công ty luật quốc tế Clifford Chance, cho biết Singapore có thể đóng vai trò là "người quản lý" trong khu vực, cho phép đổi mới diễn ra trong một môi trường an toàn. Clifford Chance đang làm việc với các cơ quan quản lý để phát triển một loạt các hướng dẫn và khuôn khổ thị trường.
"Những gì chúng tôi thấy là một cách tiếp cận nhất quán xung quanh sự cởi mở và hợp tác. Singapore được coi là khu vực tài phán an toàn để thử nghiệm và triển khai công nghệ của bạn trong một môi trường được kiểm soát với sự hỗ trợ của các cơ quan quản lý," Cramer nói.
Ý tưởng này có vẻ trùng hợp với ý tưởng của CEO OpenAI Sam Altman (Sam Altman). Vào ngày 13 tháng 6, Altman đã tham dự sự kiện OpenAI's global tour "Fireside Dialogue" tại Đại học Quản lý Singapore (Singapore Management University), nơi ông trình bày chi tiết về cách quản lý rủi ro AI. Ông tin rằng trọng tâm là cho công chúng biết và trải nghiệm những phát triển mới, điều này sẽ đảm bảo rằng mọi tác hại tiềm tàng đều được phát hiện và giải quyết trước khi tác động của nó lan rộng.
Altman cho biết: "Việc này hiệu quả hơn việc phát triển và thử nghiệm một công nghệ đằng sau những cánh cửa đóng kín rồi công bố ra công chúng với giả định rằng tất cả các rủi ro có thể xảy ra đã được xác định và ngăn chặn". tìm cách khai thác nó theo cách mà những người tạo ra nó không bao giờ nghĩ là có thể.” Điều này đúng với bất kỳ công nghệ mới nào, ông lưu ý.
"Chúng tôi tin rằng triển khai lặp đi lặp lại là cách duy nhất để làm điều này." Altman nói thêm rằng việc giới thiệu dần dần các phiên bản mới cũng sẽ cho phép xã hội thích ứng khi AI phát triển, đồng thời tạo ra phản hồi về cách cải thiện nó.
Singapore hiện đã khởi động một số dự án thí điểm, chẳng hạn như Hộp cát điều tiết FinTech hoặc Hộp cát HealthTech, để các công ty trong ngành thử nghiệm sản phẩm của họ trong môi trường trực tiếp trước khi ra mắt công chúng. Cramer cho biết: “Các khung cấu trúc và bộ công cụ thử nghiệm này sẽ giúp hướng dẫn các chính sách quản trị AI để cho phép các doanh nghiệp phát triển AI một cách an toàn và bảo mật”.