Lộ nội dung thảo luận cơ chế thẩm tra AI của Nhà Trắng; Phát biểu của Hassett bị cơ quan chức năng phủ nhận vào ngày hôm sau

MarketWhisper

白宮AI預審機制討論

Chủ nhiệm Ủy ban Kinh tế Quốc gia (NEC) Nhà Trắng Kevin Hassett cho biết trong một cuộc phỏng vấn với Fox Business vào ngày 7 tháng 5 rằng chính quyền Trump đang xem xét ban hành lệnh hành pháp để yêu cầu các mô hình AI phải trải qua thẩm định an ninh của chính phủ trước khi được công bố rộng rãi, và ông viện dẫn so sánh tương tự quy trình phê duyệt trước khi đưa thuốc ra thị trường của FDA. Tuy nhiên, theo Politico ngày 8 tháng 5, các quan chức cấp cao tại Nhà Trắng sau đó khẳng định rằng phát biểu này đã bị “cắt xén khỏi ngữ cảnh”.

Diễn tiến sự kiện: Mâu thuẫn chính sách của Nhà Trắng lộ ra công khai qua báo cáo của The New York Times

Ngày 4 tháng 5 năm 2026, The New York Times đưa tin rằng Nhà Trắng đang thảo luận việc thiết lập một cơ chế thẩm tra trước khi công bố đối với các mô hình AI, khi đó được mô tả là “đang cân nhắc”. Đến ngày 7 tháng 5 năm 2026, trong cuộc phỏng vấn với Fox Business, Kevin Hassett công khai nói rằng: “Chúng tôi đang nghiên cứu liệu có thể thông qua lệnh hành pháp để yêu cầu AI trong tương lai có thể tạo ra lỗ hổng phải chứng minh được tính an toàn trước khi được đưa vào sử dụng — cũng như các loại thuốc của FDA.”

Vào đêm khuya ngày 7 tháng 5 năm 2026, Chánh văn phòng Nhà Trắng Susie Wiles đăng bài trên nền tảng X, nói rằng chính phủ “không có trách nhiệm lựa chọn kẻ thắng người thua”, đồng thời cho rằng việc triển khai an toàn cho công nghệ mạnh mẽ nên do “các nhà sáng tạo xuất sắc của Mỹ chứ không phải cơ quan quan liêu” dẫn dắt. Theo lịch sử ghi nhận trên tài khoản chính thức của bà, bài đăng nói trên là nội dung thứ tư kể từ khi tài khoản của Wiles được tạo.

Dẫn theo Politico, ba người am hiểu được giấu tên cho biết Nhà Trắng đang thảo luận để các cơ quan tình báo tiến hành đánh giá sớm trước khi các mô hình AI được công bố. Một quan chức chính phủ Mỹ trong bài báo cho biết một trong các mục đích là “đảm bảo rằng giới tình báo sẽ nghiên cứu và khai thác các công cụ đó trước khi các đối thủ như Nga và Trung Quốc hiểu được năng lực mới”.

Các cơ quan liên quan và khung chính sách

CAISI mở rộng thỏa thuận đánh giá an toàn tự nguyện

Trung tâm Tiêu chuẩn và Đổi mới AI (CAISI) thuộc Bộ Thương mại trong tuần này đã công bố rằng họ đã ký các thỏa thuận đánh giá an toàn AI với Google DeepMind, Microsoft và xAI, đồng thời phạm vi được mở rộng so với OpenAI và Anthropic vốn đã nằm trong diện trước đó. Khung đánh giá tự nguyện của CAISI đã được triển khai từ năm 2024.

Thứ trưởng Bộ Quốc phòng công khai ủng hộ cơ chế đánh giá trước

Thứ trưởng Bộ Quốc phòng Emil Michael vào ngày 8 tháng 5 năm 2026 khi tham dự một hội nghị về AI tại Washington đã công khai ủng hộ đánh giá trước của chính phủ đối với các mô hình AI trước khi công bố, đồng thời trong phát biểu của mình đã dẫn Mythos của Anthropic như một ví dụ tham chiếu, cho rằng các mô hình liên quan “sớm muộn gì cũng sẽ xuất hiện”, và chính phủ phải xây dựng cơ chế ứng phó.

Bối cảnh chính sách của chính quyền Trump và Anthropic

Theo Politico, Bộ trưởng Quốc phòng Pete Hegseth vào tháng 3 năm 2026 đã đưa Anthropic vào danh sách rủi ro với lý do rủi ro chuỗi cung ứng, đồng thời cấm các mô hình của công ty này được sử dụng cho các hợp đồng của Bộ Quốc phòng. Sau đó, Trump đã yêu cầu riêng các cơ quan liên bang ngừng sử dụng sản phẩm của Anthropic trong vòng sáu tháng. Trong khi đó, đầu tháng trước Anthropic tiết lộ hệ thống AI Mythos của mình có khả năng phát hiện lỗ hổng phần mềm mạnh mẽ, vượt quá ngưỡng an toàn trước khi được công bố rộng rãi, và nhiều cơ quan liên bang sau đó đã nộp đơn xin kết nối. Ngày 8 tháng 5 năm 2026, OpenAI thông báo sẽ tiến hành xem trước giới hạn đối với công cụ GPT-5.5-Cyber mới, công cụ này có thể phát hiện và sửa các lỗ hổng mạng.

Quan điểm phản đối của ngành đối với cơ chế kiểm tra bắt buộc

Chủ tịch Hiệp hội Nền tảng Công nghệ Thông tin và Đổi mới (ITIF) Daniel Castro trong bài báo của Politico cho biết: “Nếu việc được phép đưa ra thị trường có thể bị từ chối trước khi lên sàn, điều đó sẽ là vấn đề lớn đối với mọi công ty. Nếu một đối thủ được phê duyệt còn công ty khác không được phê duyệt, chênh lệch vài tuần hoặc vài tháng trong việc tiếp cận thị trường sẽ tạo ra tác động vô cùng lớn.” Các đơn vị tài trợ của ITIF bao gồm Anthropic, Microsoft và Meta.

Một quan chức cấp cao tại Nhà Trắng trong cùng bài báo cho biết: “Đúng là có một hai người cực kỳ nhiệt tình với việc giám sát của chính phủ, nhưng họ chỉ là thiểu số.” Vị quan chức này được giấu tên với lý do mô tả các cuộc thảo luận chính sách nhạy cảm.

Câu hỏi thường gặp

Kevin Hassett phát biểu về thẩm định trước AI vào khi nào và ở đâu?

Theo Politico, Kevin Hassett đã công khai nêu quan điểm vào ngày 7 tháng 5 năm 2026 trong cuộc phỏng vấn với Fox Business rằng chính phủ đang xem xét ban hành lệnh hành pháp, yêu cầu các mô hình AI phải vượt qua thẩm định an ninh của chính phủ trước khi được công bố, và ông đã so sánh với quy trình phê duyệt thuốc của FDA.

Nhà Trắng phủ nhận phát biểu của Hassett dựa trên cơ sở nào?

Theo Politico ngày 8 tháng 5 năm 2026, các quan chức cấp cao tại Nhà Trắng cho biết phát biểu của Hassett “có phần bị cắt xén khỏi ngữ cảnh”, và định hướng chính sách của Nhà Trắng là thiết lập quan hệ đối tác với doanh nghiệp, không phải triển khai sự giám sát của chính phủ. Chánh văn phòng Susie Wiles cũng đăng bài để nhắc lại rằng chính phủ không can thiệp vào việc lựa chọn trên thị trường.

CAISI trong tuần này bổ sung những thỏa thuận đánh giá an toàn AI nào?

Theo tuyên bố của CAISI trong tuần này, các thỏa thuận bổ sung lần này bao gồm Google DeepMind, Microsoft và xAI, cùng với OpenAI và Anthropic vốn đã được bao phủ trước đó. Khung đánh giá tự nguyện được triển khai từ năm 2024.

Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.

Bài viết liên quan

Hệ thống Maven của Palantir nhắm vào hơn 1.000 mục tiêu trong 48 giờ đầu của hoạt động tại Iran

Theo Yonhapnews, Hệ thống Maven Smart System (MSS) của Palantir đã đóng vai trò quan trọng trong việc tấn công hơn 1.000 mục tiêu trong 48 giờ đầu tiên của chiến dịch quân sự của Mỹ chống lại Iran. Bộ Quốc phòng Mỹ đã ngày càng tích hợp các hệ thống AI vào quy trình ra quyết định quân sự, với P

GateNews43phút trước

Chip Kunlun của Baidu theo đuổi niêm yết kép trên sàn STAR Thượng Hải và Hồng Kông, được định giá trên 30 tỷ USD

Theo Bloomberg, công ty chip trí tuệ nhân tạo của Baidu, Kunlun Chip, đang theo đuổi niêm yết kép trên sàn STAR của Thượng Hải và Hồng Kông. Công ty, do Baidu nắm 58% cổ phần, đã nộp đơn xin IPO lên cơ quan quản lý chứng khoán của Trung Quốc thông qua China International Capital Corporation và

GateNews1giờ trước

API Google Gemini bị gián đoạn khả năng tương thích vào ngày 8/6, các SDK cũ sẽ phát sinh lỗi

Theo Google, API Gemini Interactions sẽ trải qua một bản cập nhật gây thay đổi lớn. Phiên bản mới sẽ trở thành mặc định vào ngày 26 tháng 5, và phiên bản cũ sẽ bị ngừng hỗ trợ hoàn toàn vào ngày 8 tháng 6. Các yêu cầu sử dụng phiên bản 1.x.x của Python hoặc JavaScript SDK sẽ trả về lỗi sau thời điểm đó. Các nhà phát triển phải sửa đổi hai

GateNews1giờ trước

SoftBank báo cáo kết quả kinh doanh cả năm khi nhà đầu tư đặt câu hỏi về kế hoạch tài trợ US$60B OpenAI

Theo Bloomberg, SoftBank Group đã công bố lợi nhuận cả năm cho năm kết thúc vào tháng 3, khi các nhà đầu tư xem xét công ty sẽ tài trợ như thế nào cho kế hoạch đầu tư 60 tỷ đô la Mỹ vào OpenAI. Công ty ghi nhận thu nhập ròng khoảng 3,3 nghìn tỷ yên (20,8 tỷ đô la Mỹ) trong năm tài chính, được hỗ trợ bởi b

GateNews2giờ trước

Các tin tuyển dụng việc làm cho AI tăng 50% khi cuộc chiến giành nhân tài châu Á đang định hình lại việc làm

Gián đoạn nhân tài AI trên khắp châu Á Các tin tuyển dụng liên quan đến AI đã tăng 50% so với cùng kỳ năm trước, ngay cả khi thị trường việc làm chung vẫn đi ngang, theo Peter Bithos, giám đốc thương mại cấp cao của Seek, người đã thảo luận về bối cảnh việc làm đang thay đổi trong một tập podcast gần đây tập trung vào cách

CryptoFrontier2giờ trước

Yu Wenhao, cựu nhà nghiên cứu AI của Tencent, gia nhập OpenAI với vai trò nhà nghiên cứu AGI vào tháng trước

Theo Beating, Yu Wenhao, cựu nhà nghiên cứu cấp cao tại phòng thí nghiệm Seattle của Tencent AI, đã gia nhập OpenAI vào tháng trước với vai trò Nghiên cứu viên AGI. Anh xác nhận trên LinkedIn rằng mình sẽ đóng góp vào việc định hình các mô hình AI thế hệ tiếp theo và thúc đẩy sự phát triển AGI. Yu có bằng Ph.D. về Khoa học Máy tính từ

GateNews3giờ trước
Bình luận
0/400
Không có bình luận