OpenAI, politika odaklı sınıflandırmayı destekleyen açık kaynak güvenli akıl yürütme modeli gpt-oss-safeguard'ı tanıttı.

robot
Abstract generation in progress

PANews 29 Ekim haberine göre, OpenAI bugün açık kaynaklı güvenlik çıkarım modeli gpt-oss-safeguard'ı (120b, 20b) yayımladı. Bu model, geliştiricilerin çıkarım sırasında içerik sınıflandırması için özel politikalar sunmalarına olanak tanır ve modelin çıktısı sonuçlarla birlikte çıkarım zincirini içerir. Bu model, açık ağırlık gpt-oss üzerinde ince ayar yapılmış olup, Apache 2.0 lisansı altında mevcuttur ve Hugging Face'ten indirilebilir. İç değerlendirmeler, çoklu politikalar doğruluğunda gpt-5-thinking ve gpt-oss'tan daha iyi performans sergilediğini göstermektedir, dış veri setindeki performansı ise Safety Reasoner'a yakındır. Sınırlamalar arasında: büyük miktarda yüksek kaliteli etiketli senaryolarda geleneksel sınıflandırıcıların hala daha iyi olduğu, çıkarım süresinin ve bilgi işlem gücünün yüksek olduğu yer almaktadır. ROOST, model topluluğu kuracak ve teknik raporlar yayımlayacaktır.

View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Reward
  • Comment
  • Repost
  • Share
Comment
0/400
No comments
  • Pin
Trade Crypto Anywhere Anytime
qrCode
Scan to download Gate App
Community
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)