OpenAI đã ra mắt Mã nguồn mở mô hình suy luận an toàn gpt-oss-safeguard, hỗ trợ phân loại theo chính sách.

GateNews

PANews ngày 29 tháng 10, OpenAI hôm nay đã phát hành mô hình suy diễn an toàn mã nguồn mở gpt-oss-safeguard (120b, 20b), cho phép các nhà phát triển cung cấp chính sách tùy chỉnh để phân loại nội dung trong quá trình suy diễn, kết luận đầu ra của mô hình và chuỗi suy diễn. Mô hình này được tinh chỉnh dựa trên trọng số mở gpt-oss, sử dụng giấy phép Apache 2.0 và có thể tải xuống từ Hugging Face. Đánh giá nội bộ cho thấy nó vượt trội hơn gpt-5-thinking và gpt-oss về độ chính xác của nhiều chính sách, và hiệu suất trên tập dữ liệu bên ngoài gần đạt yêu cầu của Safety Reasoner. Các hạn chế bao gồm: trong nhiều tình huống gán nhãn chất lượng cao, bộ phân loại truyền thống vẫn tốt hơn, thời gian suy diễn và khả năng tính toán tương đối cao. ROOST sẽ thiết lập cộng đồng mô hình và phát hành báo cáo kỹ thuật.

Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.
Bình luận
0/400
Không có bình luận