
Chủ nhiệm Ủy ban Kinh tế Quốc gia (NEC) Nhà Trắng Kevin Hassett cho biết trong một cuộc phỏng vấn với Fox Business vào ngày 7 tháng 5 rằng chính quyền Trump đang xem xét ban hành lệnh hành pháp để yêu cầu các mô hình AI phải trải qua thẩm định an ninh của chính phủ trước khi được công bố rộng rãi, và ông viện dẫn so sánh tương tự quy trình phê duyệt trước khi đưa thuốc ra thị trường của FDA. Tuy nhiên, theo Politico ngày 8 tháng 5, các quan chức cấp cao tại Nhà Trắng sau đó khẳng định rằng phát biểu này đã bị “cắt xén khỏi ngữ cảnh”.
Ngày 4 tháng 5 năm 2026, The New York Times đưa tin rằng Nhà Trắng đang thảo luận việc thiết lập một cơ chế thẩm tra trước khi công bố đối với các mô hình AI, khi đó được mô tả là “đang cân nhắc”. Đến ngày 7 tháng 5 năm 2026, trong cuộc phỏng vấn với Fox Business, Kevin Hassett công khai nói rằng: “Chúng tôi đang nghiên cứu liệu có thể thông qua lệnh hành pháp để yêu cầu AI trong tương lai có thể tạo ra lỗ hổng phải chứng minh được tính an toàn trước khi được đưa vào sử dụng — cũng như các loại thuốc của FDA.”
Vào đêm khuya ngày 7 tháng 5 năm 2026, Chánh văn phòng Nhà Trắng Susie Wiles đăng bài trên nền tảng X, nói rằng chính phủ “không có trách nhiệm lựa chọn kẻ thắng người thua”, đồng thời cho rằng việc triển khai an toàn cho công nghệ mạnh mẽ nên do “các nhà sáng tạo xuất sắc của Mỹ chứ không phải cơ quan quan liêu” dẫn dắt. Theo lịch sử ghi nhận trên tài khoản chính thức của bà, bài đăng nói trên là nội dung thứ tư kể từ khi tài khoản của Wiles được tạo.
Dẫn theo Politico, ba người am hiểu được giấu tên cho biết Nhà Trắng đang thảo luận để các cơ quan tình báo tiến hành đánh giá sớm trước khi các mô hình AI được công bố. Một quan chức chính phủ Mỹ trong bài báo cho biết một trong các mục đích là “đảm bảo rằng giới tình báo sẽ nghiên cứu và khai thác các công cụ đó trước khi các đối thủ như Nga và Trung Quốc hiểu được năng lực mới”.
Trung tâm Tiêu chuẩn và Đổi mới AI (CAISI) thuộc Bộ Thương mại trong tuần này đã công bố rằng họ đã ký các thỏa thuận đánh giá an toàn AI với Google DeepMind, Microsoft và xAI, đồng thời phạm vi được mở rộng so với OpenAI và Anthropic vốn đã nằm trong diện trước đó. Khung đánh giá tự nguyện của CAISI đã được triển khai từ năm 2024.
Thứ trưởng Bộ Quốc phòng Emil Michael vào ngày 8 tháng 5 năm 2026 khi tham dự một hội nghị về AI tại Washington đã công khai ủng hộ đánh giá trước của chính phủ đối với các mô hình AI trước khi công bố, đồng thời trong phát biểu của mình đã dẫn Mythos của Anthropic như một ví dụ tham chiếu, cho rằng các mô hình liên quan “sớm muộn gì cũng sẽ xuất hiện”, và chính phủ phải xây dựng cơ chế ứng phó.
Theo Politico, Bộ trưởng Quốc phòng Pete Hegseth vào tháng 3 năm 2026 đã đưa Anthropic vào danh sách rủi ro với lý do rủi ro chuỗi cung ứng, đồng thời cấm các mô hình của công ty này được sử dụng cho các hợp đồng của Bộ Quốc phòng. Sau đó, Trump đã yêu cầu riêng các cơ quan liên bang ngừng sử dụng sản phẩm của Anthropic trong vòng sáu tháng. Trong khi đó, đầu tháng trước Anthropic tiết lộ hệ thống AI Mythos của mình có khả năng phát hiện lỗ hổng phần mềm mạnh mẽ, vượt quá ngưỡng an toàn trước khi được công bố rộng rãi, và nhiều cơ quan liên bang sau đó đã nộp đơn xin kết nối. Ngày 8 tháng 5 năm 2026, OpenAI thông báo sẽ tiến hành xem trước giới hạn đối với công cụ GPT-5.5-Cyber mới, công cụ này có thể phát hiện và sửa các lỗ hổng mạng.
Chủ tịch Hiệp hội Nền tảng Công nghệ Thông tin và Đổi mới (ITIF) Daniel Castro trong bài báo của Politico cho biết: “Nếu việc được phép đưa ra thị trường có thể bị từ chối trước khi lên sàn, điều đó sẽ là vấn đề lớn đối với mọi công ty. Nếu một đối thủ được phê duyệt còn công ty khác không được phê duyệt, chênh lệch vài tuần hoặc vài tháng trong việc tiếp cận thị trường sẽ tạo ra tác động vô cùng lớn.” Các đơn vị tài trợ của ITIF bao gồm Anthropic, Microsoft và Meta.
Một quan chức cấp cao tại Nhà Trắng trong cùng bài báo cho biết: “Đúng là có một hai người cực kỳ nhiệt tình với việc giám sát của chính phủ, nhưng họ chỉ là thiểu số.” Vị quan chức này được giấu tên với lý do mô tả các cuộc thảo luận chính sách nhạy cảm.
Theo Politico, Kevin Hassett đã công khai nêu quan điểm vào ngày 7 tháng 5 năm 2026 trong cuộc phỏng vấn với Fox Business rằng chính phủ đang xem xét ban hành lệnh hành pháp, yêu cầu các mô hình AI phải vượt qua thẩm định an ninh của chính phủ trước khi được công bố, và ông đã so sánh với quy trình phê duyệt thuốc của FDA.
Theo Politico ngày 8 tháng 5 năm 2026, các quan chức cấp cao tại Nhà Trắng cho biết phát biểu của Hassett “có phần bị cắt xén khỏi ngữ cảnh”, và định hướng chính sách của Nhà Trắng là thiết lập quan hệ đối tác với doanh nghiệp, không phải triển khai sự giám sát của chính phủ. Chánh văn phòng Susie Wiles cũng đăng bài để nhắc lại rằng chính phủ không can thiệp vào việc lựa chọn trên thị trường.
Theo tuyên bố của CAISI trong tuần này, các thỏa thuận bổ sung lần này bao gồm Google DeepMind, Microsoft và xAI, cùng với OpenAI và Anthropic vốn đã được bao phủ trước đó. Khung đánh giá tự nguyện được triển khai từ năm 2024.
Bài viết liên quan
Hệ thống Maven của Palantir nhắm vào hơn 1.000 mục tiêu trong 48 giờ đầu của hoạt động tại Iran
Chip Kunlun của Baidu theo đuổi niêm yết kép trên sàn STAR Thượng Hải và Hồng Kông, được định giá trên 30 tỷ USD
API Google Gemini bị gián đoạn khả năng tương thích vào ngày 8/6, các SDK cũ sẽ phát sinh lỗi
SoftBank báo cáo kết quả kinh doanh cả năm khi nhà đầu tư đặt câu hỏi về kế hoạch tài trợ US$60B OpenAI
Các tin tuyển dụng việc làm cho AI tăng 50% khi cuộc chiến giành nhân tài châu Á đang định hình lại việc làm
Yu Wenhao, cựu nhà nghiên cứu AI của Tencent, gia nhập OpenAI với vai trò nhà nghiên cứu AGI vào tháng trước