AI có thể xác minh: Chìa khóa để cân bằng đổi mới và niềm tin trong chính sách AI

Dưới đây là một bài viết của khách từ Felix Xu, Người sáng lập ARPA Network.

Cách tiếp cận của chính phủ Mỹ đối với trí tuệ nhân tạo (AI) đã thay đổi đáng kể, nhấn mạnh việc tăng cường đổi mới hơn là giám sát quy định. Đặc biệt, sắc lệnh hành pháp của Tổng thống Donald Trump, Gỡ bỏ rào cản để lãnh đạo Mỹ trong trí tuệ nhân tạo, đã thiết lập một tông mới cho sự phát triển AI, một tông mang tính thúc đẩy tự do ngôn luận và tiến bộ công nghệ. Tương tự, sự từ chối của Phó Tổng thống Mỹ JD Vance để ủng hộ một thỏa thuận an toàn AI toàn cầu cho thấy rằng Mỹ sẽ ưu tiên đổi mới mà không làm tổn hại đến lợi thế cạnh tranh của mình.

Tuy nhiên, khi các hệ thống AI ngày càng trở nên có ảnh hưởng hơn trong các thị trường tài chính, cơ sở hạ tầng thiết yếu và diễn đàn công cộng, câu hỏi vẫn còn: Làm thế nào chúng ta có thể đảm bảo sự tin cậy và độ tin cậy trong các quyết định và đầu ra dựa trên mô hình AI mà không cản trở sự đổi mới?

Đây là nơi AI có thể xác minh xuất hiện, cung cấp một phương pháp minh bạch, an toàn về mặt mật mã cho AI, đảm bảo trách nhiệm mà không cần quản lý nặng tay.

Thách thức của AI mà không có sự minh bạch

Sự tiến bộ nhanh chóng của AI đã mở ra một kỷ nguyên mới của các tác nhân AI thông minh có khả năng ra quyết định phức tạp và tự động. Nhưng nếu không có sự minh bạch, các hệ thống này có thể trở nên khó đoán và không thể bị truy cứu trách nhiệm.

Chẳng hạn, các tác nhân AI tài chính, dựa vào các mô hình học máy tinh vi để phân tích các tập dữ liệu khổng lồ, hiện đang hoạt động dưới ít yêu cầu công khai hơn. Trong khi điều này khuyến khích đổi mới, nó cũng tạo ra một khoảng cách về niềm tin: mà không có cái nhìn sâu sắc vào cách mà các tác nhân AI này đạt được kết luận của chúng, các công ty và người dùng có thể gặp khó khăn trong việc xác minh độ chính xác và độ tin cậy của chúng.

Một cú sập thị trường do quyết định sai lầm của mô hình AI gây ra không chỉ là một rủi ro lý thuyết, mà là một khả năng nếu các mô hình AI được triển khai mà không có các biện pháp bảo vệ có thể xác minh. Thách thức không phải là làm chậm tiến bộ của AI mà là đảm bảo rằng các sản phẩm đầu ra của nó có thể được chứng minh, xác thực và tin cậy.

Như nhà tâm lý học nổi tiếng của Harvard, B.F. Skinner đã từng nói, “Vấn đề thực sự không phải là máy móc có suy nghĩ hay không mà là con người có suy nghĩ hay không.” Trong AI, vấn đề chính không chỉ là những hệ thống này thông minh đến mức nào, mà là con người có thể xác minh và tin tưởng vào sự thông minh của chúng như thế nào.

Cách Verifiable AI Bridging Trust Gap

Russel Wald, giám đốc điều hành tại Viện Trí tuệ Nhân tạo Tập trung vào Con người Stanford, tóm tắt cách tiếp cận AI của Hoa Kỳ:

“An toàn sẽ không phải là trọng tâm chính, mà thay vào đó, đó sẽ là đổi mới nhanh chóng và niềm tin rằng công nghệ là một cơ hội.”

Đây chính là lý do tại sao AI có thể xác minh được là rất quan trọng. Nó cho phép đổi mới AI mà không làm suy giảm sự tin cậy, đảm bảo rằng các kết quả của AI có thể được xác minh theo cách phi tập trung và bảo vệ quyền riêng tư.

AI có thể xác minh sử dụng các kỹ thuật mật mã như Bằng chứng Không biết (ZKPs) và Học máy Không biết (ZKML) để cung cấp cho người dùng sự tự tin trong các quyết định của AI mà không tiết lộ dữ liệu độc quyền.

  • ZKP cho phép hệ thống AI tạo ra các chứng minh mật mã xác nhận rằng một đầu ra là hợp pháp mà không tiết lộ dữ liệu hoặc quy trình cơ bản. Điều này đảm bảo tính toàn vẹn ngay cả trong một môi trường có sự giám sát quy định tối thiểu.
  • ZKML mang đến các mô hình AI có thể xác minh trên chuỗi, cho phép các đầu ra AI không cần tin cậy mà có thể chứng minh bằng toán học. Điều này đặc biệt quan trọng đối với các oracle AI và việc ra quyết định dựa trên dữ liệu trong các ngành như tài chính, chăm sóc sức khỏe và quản trị.
  • ZK-SNARKs chuyển đổi các phép toán AI thành các bằng chứng có thể xác minh, đảm bảo rằng các mô hình AI hoạt động an toàn trong khi bảo vệ quyền sở hữu trí tuệ và quyền riêng tư của người dùng.

Về bản chất, AI có thể xác minh cung cấp một lớp xác minh độc lập, đảm bảo rằng các hệ thống AI vẫn minh bạch, có trách nhiệm và có khả năng chính xác.

AI có thể xác minh: Tương lai của trách nhiệm AI

Đường đi của trí tuệ nhân tạo tại Mỹ đang được thiết lập cho sự đổi mới mạnh mẽ. Nhưng thay vì chỉ dựa vào sự giám sát của chính phủ, ngành công nghiệp phải ủng hộ các giải pháp công nghệ đảm bảo cả tiến bộ và sự tin cậy.

Một số công ty có thể tận dụng các quy định AI lỏng lẻo để ra mắt sản phẩm mà không có các kiểm tra an toàn đầy đủ. Tuy nhiên, AI Có thể xác minh cung cấp một giải pháp mạnh mẽ giúp các tổ chức và cá nhân xây dựng các hệ thống AI có thể chứng minh, đáng tin cậy và chống lại việc lạm dụng.

Trong một thế giới mà AI đang đưa ra những quyết định ngày càng có hậu quả quan trọng, giải pháp không phải là làm chậm lại sự tiến bộ, mà là làm cho AI có thể xác minh được. Đó là chìa khóa để đảm bảo AI vẫn là một lực lượng cho sự đổi mới, niềm tin và tác động toàn cầu lâu dài.

Được đề cập trong bài viết này
Xem bản gốc
Nội dung chỉ mang tính chất tham khảo, không phải là lời chào mời hay đề nghị. Không cung cấp tư vấn về đầu tư, thuế hoặc pháp lý. Xem Tuyên bố miễn trừ trách nhiệm để biết thêm thông tin về rủi ro.
  • Phần thưởng
  • Bình luận
  • Chia sẻ
Bình luận
0/400
Không có bình luận
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate.io
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • ไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)