💥 Gate廣場活動: #FST创作大赛# 💥
在 Gate廣場 發布 CandyDrop 第71期:CandyDrop x FreeStyle Classic Token (FST) 相關原創內容,即有機會瓜分 3,000 FST 獎勵!
📅 活動時間:2025年8月27日 – 9月2日
📌 參與方式:
發布原創內容,主題需與 FST 或 CandyDrop 活動相關
內容不少於 80 字
帖子添加話題: #FST创作大赛#
附上 CandyDrop 參與截圖
🏆 獎勵設置:
一等獎(1名):1,000 FST
二等獎(3名):500 FST/人
三等獎(5名):200 FST/人
📄 注意事項:
內容必須原創,禁止抄襲或刷量
獲獎者需完成 Gate 廣場身分認證
活動最終解釋權歸 Gate 所有
活動詳情連結: https://www.gate.com/announcements/article/46757
只憑CPU/GPU性能換機的時代,過去了
原文來源:矽星人
上周,一款全新“小”設備點燃了全球科技界的熱情。 它就是由OpenAI CEO Sam Altman投資的、人類歷史上第一款真正的AI硬體——AI Pin。
這款別在胸前、被眾多媒體冠以“AI時代iPhone”的硬體,在設計突出一個“激進”,直接砍掉了過往中樞行動裝置肯定有的顯示幕,還要獨立於智慧手機運行。
在應用層面,由GPT4驅動的AI助手既是系統,也是唯一的App。 用戶的語音命令就是最主要的操控方式。 剩下的鐳射投射和手勢識別,僅僅是作為整個交互系統的補充存在,以非常簡單的介面和操控為使用者提供包括資訊、天氣、時間、日期、導航等內容。
這種對於整個移動互聯網時代交互邏輯的顛覆,讓AI Pin獲得了很多極客用戶的喜愛。
而大多數普通使用者的想法,其實是“希望將這種交互和能力,內嵌到智能手機之中”,讓智能手機再次獲得升級。
顯而易見,隨著大模型的各種能力逐步落地,消費者即將進入一個考慮自己的行動裝置能否流暢運行AI能力,而不是只考慮CPU、GPU絕對性能的時代。 而這,必將帶來新的挑戰和機會。
移動端普及AI大模型,有哪些挑戰?
首要的,是來自於AI大模型提出的全新計算能力需求。
與手機和筆記本之前面對各種系統、軟體負載不同,大模型相比過往的AI應用,在神經規模大小、計算量、存儲空間、讀寫速度的需求上,有了數十倍的增長。
以OpenAI最新的GPT-4模型為例,據行業內傳聞就有高達1.8萬億個參數,而其2018年發佈的GPT-1,僅有1.1億個參數。 規模相差10000倍。
即便是移動端大模型應用階段對模型進行瘦身,但實際應用的推理模型參數量也將高達70億-100億個參數。 再靠過往的移動端升級CPU和GPU硬體規格的方法,肯定無法滿足數倍乃至數十倍增長的AI計算需求。
解決新增需求的方法只有兩個,要麼聯網,用網路把計算過程“轉移”到雲端。 要麼想辦法提升計算力,在本地直接計算出結果。
開篇介紹的AI Pin,產品中就打包整合了美國運營商的聯網服務,其每月24美元的月租,除了掏錢買OpenAI的服務能力之外,也有移動網路的花費。
這套看似“簡潔”的處理方法,同樣存在著不少的疑問。
首先是最危險的隱私問題,將個人的數據、個人絕大多數的生活點滴,甚至是一些極其私人的資訊全部任由AI Pin這樣的硬體上傳,會導致數據安全隱患。
退一步說,把所有AI計算需求放在雲端,由本地上傳數據再下載數據的方式,網路的品質將極大影響最終使用的體驗。 尤其是在移動網路覆蓋本就不如中國好的海外,卡頓乃至無回應大概率都會出現。
成本上的挑戰也同樣值得關注,一次性購買的本地計算能力,雖然比連續訂購的雲上算力先期投入大,但全生命週期往往要划算得多。 就以AI Pin為例,699美元的起售價,每個月還要付24美元的租金,實屬不便宜。
整合以上三點,不難得到一個結論:AI大模型在移動端實現當地語系化,才是最優解。
相應地,行動裝置行業需要進行一次從底層硬體到頂層生態的全面升級。
搶跑AI時代的高通
回望整個移動端市場,有能力推動這場全面升級的玩家,已經參與其中付出努力的更是少數,高通恰恰是其中一個。
在年初的MWC2023上,高通就展示了生成式AI模型——Stable Diffusion在第二代驍龍8賦能的智能手機上的運行。 Stable Diffusion模型的規模為10億參數,第二代驍龍8可以在15秒內執行20步推理,把文字提示生成一張圖像。
而在高通最近發佈的全新旗艦移動平臺第三代驍龍8上,高通AI引擎的核心Hexagon NPU再次升級,整體性能再度提升了98%,能效也提升了40%。
在更細分的性能緯度,最新的Hexagon NPU通過集成更強的高通感測器中樞,包括2個始終感應ISP、1個DPS、2個micro NPU,增加30%的記憶體以及對INT4計算模式的支援,讓其AI運行性能最大提升3.5倍。
直觀上的結果是,第三代驍龍8能夠運行高達100億參數的生成式AI模型,並以20 tokens/s的速度運行大語言模型。 並且這不僅僅只是支持的數位而已,而且是已經可以實現的能力。
如此強大的性能,讓第三代驍龍8已經能夠在本地運行很多AI大模型相關的應用。
榮耀手機CEO趙明就在驍龍峰會上演示了手機上的生成式AI用例,能夠支援在手機上完成主題視頻的創作。 手機系統可以自己在本地媒體庫中檢索出具有相同主題的圖片和視頻,然後讓AI大模型進行視頻編輯。
用戶後期可以通過與AI對話更改背景音樂和範本,這一整個過程,未來將完全在本地進行,絲毫不用擔心私人照片視頻數據在上傳到雲端之後不小心洩露。
而在小米14系列上,已經適配的WPS不僅持輸入主題一鍵生成PPT演示文稿,還可以識別帶有文字的圖片和文章,實現“一目十行”掃描閱讀,提煉出重點,使用者可以按照自己最想要知道的問題向AI直接提問。
針對論文、合同、課件等檔,WPS AI通過掃描識別進行翻譯、概括、查詢定位等,可説明用戶進行全文理解分析和總結,同時提供文檔溯源功能,確保準確性、真實性。
在強大的第三代驍龍8移動平臺之外,高通在此次峰會上還推出了迄今為止其面向PC打造的最強計算處理器:驍龍X Elite。
其中在CPU部分,高通祭出了相容ARM指令集的前提下完全重構的Oryon CPU,官方表示其單核性能領先蘋果M2 Max約14%,且功耗減少30%;同時CPU單線程性能超過了專門為高性能遊戲終端而設計的i9-13980HX,並且在相同性能水準下功耗減少70%。
GPU部分的Adreno GPU性能也有所提升,達到4.6萬億次浮點運算(TFLOPS),同時支援4K@120Hz HDR10螢幕,並可以擴展三個UHD或者兩個5K外接顯示器。
最為亮眼的當屬NPU部分,相比手機移動平臺,X Elite的異構算力進一步提升,達到75TOPS,其中Hexagon NPU支援45TOPS算力。 出色的性能讓其已經可以實現在本地運行130億參數模型;運行70億參數大語言模型可以每秒生成30個token。
在驍龍峰會的現場,知名視頻剪輯軟體達芬奇的製作方Blackmagic Design也給出了驍龍X Elite在AI方面的使用效果:對於支援AI的計算密集型Magic Mask,驍龍X Elite比採用集成GPU的高端十二核Windows處理器快1.7倍;Magic Mask在集成NPU上運行,比在相同的12核處理器上運行快3倍。
手機端和筆記本端出色的運行結果背後,除了高通強大的晶元性能之外,也有著高通整體AI軟體棧的功勞。 例如這一次峰會上,高通就宣佈了增加對ONNX Runtime快速訪問驍龍晶元、對Microsoft計算驅動程式模型(MCDM)的支援。
前者是一個是微軟推出的推理框架,支援多種運行後端,開發者在製作相應的推理應用時,可以更加高效;至於對MCDM的支持,未來高通NPU在Windows系統中的調用將會更加高效直接。
高通在生態方面的這些努力,在説明終端廠商夥伴打造出色產品的同時,也吸引了越來越多獨立軟體開發商(ISV)和開發者加入到高通的生態中來,推動AI大模型應用在高通平臺上的落地和推廣。
仍在加速的高通
從啟動首個AI研究專案至今,高通在AI領域已經深耕十餘年。 多年來在移動平臺中的技術積累,以及對AI能力的不斷探索,最終在如今AI大模型落地的瞬間爆發出來。
按照半導體行業晶元3年左右的開發週期推算,這次新登場的、性能極為出色的第三代驍龍8移動平臺和驍龍X Elite,早在2020年左右就已經進入了開發程式,可見高通對於行動裝置、人工智慧行業的深度理解與把握。
這種對於最前沿技術的追求、對於為用戶帶來最極致體驗的初心,驅動著高通不斷向前發展。 也讓從3G/4G時代憑藉通信技術、手機SoC平臺化崛起的高通,再次抓住了AI大模型這一難得的機遇。
這樣的高通,自然也會成為接下來不再只關注行動裝置基礎處理性能,而是更關注AI性能的消費者的首選。