PANews ngày 29 tháng 10, OpenAI hôm nay đã phát hành mô hình suy diễn an toàn mã nguồn mở gpt-oss-safeguard (120b, 20b), cho phép các nhà phát triển cung cấp chính sách tùy chỉnh để phân loại nội dung trong quá trình suy diễn, kết luận đầu ra của mô hình và chuỗi suy diễn. Mô hình này được tinh chỉnh dựa trên trọng số mở gpt-oss, sử dụng giấy phép Apache 2.0 và có thể tải xuống từ Hugging Face. Đánh giá nội bộ cho thấy nó vượt trội hơn gpt-5-thinking và gpt-oss về độ chính xác của nhiều chính sách, và hiệu suất trên tập dữ liệu bên ngoài gần đạt yêu cầu của Safety Reasoner. Các hạn chế bao gồm: trong nhiều tình huống gán nhãn chất lượng cao, bộ phân loại truyền thống vẫn tốt hơn, thời gian suy diễn và khả năng tính toán tương đối cao. ROOST sẽ thiết lập cộng đồng mô hình và phát hành báo cáo kỹ thuật.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
OpenAI đã ra mắt Mã nguồn mở mô hình suy luận an toàn gpt-oss-safeguard, hỗ trợ phân loại theo chính sách.
PANews ngày 29 tháng 10, OpenAI hôm nay đã phát hành mô hình suy diễn an toàn mã nguồn mở gpt-oss-safeguard (120b, 20b), cho phép các nhà phát triển cung cấp chính sách tùy chỉnh để phân loại nội dung trong quá trình suy diễn, kết luận đầu ra của mô hình và chuỗi suy diễn. Mô hình này được tinh chỉnh dựa trên trọng số mở gpt-oss, sử dụng giấy phép Apache 2.0 và có thể tải xuống từ Hugging Face. Đánh giá nội bộ cho thấy nó vượt trội hơn gpt-5-thinking và gpt-oss về độ chính xác của nhiều chính sách, và hiệu suất trên tập dữ liệu bên ngoài gần đạt yêu cầu của Safety Reasoner. Các hạn chế bao gồm: trong nhiều tình huống gán nhãn chất lượng cao, bộ phân loại truyền thống vẫn tốt hơn, thời gian suy diễn và khả năng tính toán tương đối cao. ROOST sẽ thiết lập cộng đồng mô hình và phát hành báo cáo kỹ thuật.