💥 Gate廣場活動: #FST创作大赛# 💥
在 Gate廣場 發布 CandyDrop 第71期:CandyDrop x FreeStyle Classic Token (FST) 相關原創內容,即有機會瓜分 3,000 FST 獎勵!
📅 活動時間:2025年8月27日 – 9月2日
📌 參與方式:
發布原創內容,主題需與 FST 或 CandyDrop 活動相關
內容不少於 80 字
帖子添加話題: #FST创作大赛#
附上 CandyDrop 參與截圖
🏆 獎勵設置:
一等獎(1名):1,000 FST
二等獎(3名):500 FST/人
三等獎(5名):200 FST/人
📄 注意事項:
內容必須原創,禁止抄襲或刷量
獲獎者需完成 Gate 廣場身分認證
活動最終解釋權歸 Gate 所有
活動詳情連結: https://www.gate.com/announcements/article/46757
OpenAI救了Stable Diffusion!開源Dall· E3同款解碼器,來自Ilya宋飏等
來源:量子維度
在熱火朝天的「AI春晚」上,OpenAI一口氣開源兩項工作,其中之一一致性解碼器,專門面向SD的VAE模型。
它能讓圖像生成品質更高、更穩定,比如多人臉、帶文字圖像以及線條控制方面。
項目頁上只放了一個例子,具體怎麼訓練沒有寫,被網友稱為“人狠話不多式開源”。
它來自OpenAI聯創及首席科學家Ilya、OpenAI華人新星宋飏等人提出的一致性模型(Consistency Models)。
上半年這個模型開源時就引發業內震動,被評為能「終結擴散模型」。。
就在前不久,宋飏等人還對模型訓練方法做了優化,能進一步提升圖像生成品質。
網友們不禁感慨:還是愛看OpenAI開源啊,期待繼續開放更多模型。
一致性模型完成再進化
先來看最初名震江湖的第一版一致性模型(Consistency Models)。
它旨在解決擴散模型通過逐步反覆運算、導致圖像生成緩慢的問題。 僅需3.5秒即可生成64張左右256×256的圖像。
其一,無需對抗訓練(adversarial training),就能直接生成高品質的圖像樣本。
其二,相比擴散模型可能需要幾百甚至上千次反覆運算,一致性模型只需要一兩步就能搞定多種圖像任務——
包括上色、去噪、超分等,都可以在幾步之內搞定,而不需要對這些任務進行明確訓練。 (當然,如果進行少樣本學習的話,生成效果也會更好)
原理上,一致性模型直接把隨機的雜訊映射到複雜圖像上,輸出都是同一軌跡上的同一點,所以實現了一步生成。
另一種方法是獨立訓練,將一致性模型作為獨立生成模型訓練。
實驗結果表明,一致性模型在一步和少步採樣方面優於現有的蒸餾技術,如漸進式蒸餾。
當作為獨立的生成模型進行訓練時,一致性模型可以與現有的一步非對抗生成模型在標準基準測試匯總媲美,如CIFAR-10、ImageNet 64×64和LSUN 256×256。
它通過優化權重函數、雜訊嵌入和dropout,使得一致性模型在不需要依賴學習過的特徵,也能達到很好的生成品質。
它改進了權重函數的選擇,使其隨著雜訊水準的增加而減小,這使得在較小雜訊水準處的一致性損失權重更大,從而提升樣本品質。
同時調整了雜訊嵌入層的敏感性,使其降低對微小雜訊差異的敏感性,有助於提高連續時間一致性訓練的穩定性。
並且發現了在一致性模型中使用較大dropout、移除teacher network中的EMA、將學習過的特徵距離(如LPIPS)替換Pseudo-Huber損失函數,都能能進一步提高圖像品質。
還有一件事
回到這次最新開源的解碼器,第一波實測體驗已經來了。
目前看到的一些效果,提升不算明顯,而且不少人反映運行速度慢。
但這還是最早期的測試,後續或許會有更多提升。
今年,憑藉一致性模型,宋飏也名震江湖。 這位大佬16歲就當理科狀元上清華了,關於他的更多故事可戳:OpenAI當紅新星宋飏:最新研究獲評「終結擴散模型」,16歲上清華
論文位址:
[1] [2]