120GB共享顯存無人能敵!酷睿Ultra 200H輕松跑1200億參數MoE大模型
時間:2025-11-24 21:22:15 出處:焦點閱讀(143)
近幾年的共享AI浪潮之下,端側AI成為一個重要的顯存發展分支和方向,憑借隱私保護、無人數據安全、酷睿成本控制、輕松空間友好等方面的跑億優勢得到了越來越廣泛的應用。
為此,參數各家廠商紛紛打造了各種各樣的模型端側AI硬件方案,比如蘋果Mac mini、共享AMD Strix Halo、顯存NVIDIA DGX Spark,無人都以迷你機的酷睿形態,提供了強大的輕松算力和豐富的開發用戶應用生態。
那么,跑億Intel呢?參數
其實,Intel有著更為豐富的端側AI硬件方案,遠超其他任何友商,包括AI PC輕薄本、AI高靜游戲本、AI臺式機、Mini AI工作站、AI工作站、邊緣/車載AI Box、AI NAS等等。
它們基于酷睿Ultra或者至強W處理器,可搭配核顯、獨顯乃至銳炫Pro專業顯卡,滿足端側通用、垂直行業、邊緣計算等眾多領域的不同需求。
日前在重慶舉辦的技術創新與產業生態大會上,Intel就集中展示了以旗艦型號酷睿Ultra 9 285H為代表的酷睿Ultra 200H系列的四大全新AI能力,包括:
更大的系統內存、更大的共享顯存、更多的應用場景、更多的產品選擇。
酷睿Ultra 200H系列最高可以支持128GB系統內存,最高頻率LPDDR5X-8400或者DDR5-6400。
面向8000元以下價位段的主流市場,Intel推薦采用酷睿Ultra 9 285H處理器搭配64GB內存,專業、日常全場景需求都能滿足。
針對萬元價位以上價位段的發燒友、開發者市場,Intel推薦采用酷睿Ultra 9 285H處理器搭配96GB或128GB內存,帶來更強的AI算力。
由于目前內存的價格實在離譜,第一批次產品的內存容量基本都是最高96GB。
值得一提的是,酷睿Ultra 9 285H處理器的整體AI算力高達99 TOPS,其中iGPU 77 TOPS ,可確保大參數AI模型流暢運行,NPU 13 TOPS,專為高能效AI推理設計,CPU 9 TOPS,可保障系統快速響應與低時延處理。
不同于友商,Intel陣營的產品形態更加豐富,不止有迷你機,還有筆記本,而且都是品質更高的商用本甚至工作站級筆記本。
現場展示的首批產品,包括:華碩NUC15 Pro、零刻GTi15、創盈芯A3A、極摩客EVO-IT、機械師MiniGTS、六聯MTB19D、Geekom NUCAR01-C包括戴爾Pro Max 16、惠普戰99 16 Gli、聯想昭陽悅Plus 16IAH等等。
AI不但需要大內存,更需要大顯存,AMD做到了96GB,NVIDIA做到了100GB,Intel則更加靈活、強大。
在Intel顯卡驅動控制中心,開啟“共享GPU內存覆蓋”,就可以自由選擇共享顯存的比例,最少為系統內存的5%,最多可達95%。
也就是說,如果你的系統內存為128GB,最多可以共享120GB作為顯存,96GB系統內存則能共享90GB,這是其他廠商都做不到的。
有了如此海量的顯存,最直接的好處就是能夠以更快的速度、運行更大參數量的大模型,從而用于更多的應用和場景,最高甚至能輕松搞定1200億參數規模的MoE專家模型。
Intel現場演示了本地運行GTP-OSS-20B、Qwen3-30B-A3B、Qwen3-Next-80B-A3B、GTP-OSS-120B等不同參數量的MoE專家模型,逐步上強度,都輕松搞定。
最關鍵的是,Tokens生成速度相當快,并非每秒幾個勉強能跑的樣子,而是都達到了幾十個、十幾個,輸出速度超過了人的閱讀速度。
AI續寫《紅樓夢》也非常有意思,只需給出設定條件,AI就能洋洋灑灑一揮而就,很快就能寫出幾千字的情節,頗有閱讀性和戲劇性。
Intel率先支持并優化了DeepSeek-R1 OCR模型,它擁有先進的光學壓縮技術,可以準確處理文檔資料,并支持更長的內容。
在酷睿Ultra 200H系列高算力的支持下,能夠精準識別圖像中的文字與排版格式,一鍵轉換為可編輯文檔,不但輸入處理速度更快,還能顯著降低內存消耗,并大幅提升識別效率與系統響應能力。
無論是復雜多變的掃描文檔,還是帶有各種圖表的題目,抑或格式復雜的表格,都不在話下。
對于醫療處方影像、法務合同文書、培訓學習教材、財會報銷票證、學習筆記資料,這些需要內部保密,不方便上云處理的,更適合在本地端側搞定,離線也不影響。
TTS文字轉語音領域,無論是語音合成、聲音克隆,還是多語言支持、多音色定制不在話下,在本地生成具有自然音色、節奏、情感的語音,實現個性化聲紋的定制。
在端側運行,更能保證個人聲音不至于外泄而被惡意利用。
目前,Intel已經與眾多TTS模型進行了合作,包括FastSpeech2、FireRedTTS2、GPT-Sovits、MeloTTS、OpenVoice2、Paler-TTS、Speech-t5、voxCPM-0.5B,等等。
視覺語言理解方面,可以實現“慧眼”識物。
酷睿Ultra 9 285H支持用戶上傳圖片或者通過多個攝像頭,采集圖片和視頻,在借助內置模型實時解析畫面內容,提供即時反饋。
得益于Intel XPU架構的深度優化,首字生成速度得以大幅提升,從而帶來更流暢、更直觀的視覺交互體驗。
當然,我們還可以將OCR、LLM、MCP、TTS、I2V等多種能力組合在一起,處理更加復雜的任務。
酷睿Ultra 200H系列通過支持模型上下文協議(MCP),可賦予AI智能體強大的理解、記憶與執行能力,能夠基于環境感知進行連續任務處理,讓AI真正可以獨立規劃、連續執行。
比如最近非常火的“康熙之父野史”,AI就能快速生成相關視頻,其中就包括OCR歸檔資料、本地模型整理資料、重點內容生成PPT、模仿音色完成配音、AIGC視頻生成等用到了不同能力的多個步驟。
Intel與群聯電子共同將aiDAPTIV+技術與酷睿Ultra 200H系列處理器結合,通過PCIe 5.0 AI SSD實現“以存代算”,顯著加速模型推理。
aiDAPTIV+是群聯電子、MaiStorage聯合開發的AI技術,專為Intel AI PC平臺優化,通過將閃存納入AI系統存儲池,將無需放在內存中的數據卸載至SSD,從而實現低預算生成式AI訓練與推理,推理性能比核顯高出10多倍,程序響應時間則可從73秒縮短至4秒。
這一技術不僅可以支持更快的響應速度、更長的長下文、大幅縮短響應速度,還能夠以更低的投入,提供更快速、流暢的端側AI體驗。
如果這些還是不能滿足你,還可以通過40Gbps帶寬的雷電4或者80Gbps帶寬的雷電5接口,進行雙機互連,構建一個經濟、高效的本地算力集群,樂趣加倍!
有了兩顆酷睿Ultra 9 285H處理器、192GB甚至是256GB內存,就可以玩轉更大的模型,MoE模型甚至能搞定235B也就是2350億參數規模。
還可以通過雙機DP模式,滿足更多的并發用戶,或者雙機分別運行不同模型,支持更加復雜的應用場景。
另外,針對有著更高需求的專業用戶、中小企業、工作室,Intel最近還推出了銳炫Pro B60專業顯卡,搭配酷睿Ultra或者至強W處理器,可組成更強大的工作站,支持單卡、雙卡、四卡、八卡甚至是多塊雙芯卡的不同組合,還可以搭配Gaudi AI加速器。
銳炫Pro B60就是為AI推理而生,基于Xe2微架構,擁有20個Xe核心、24GB大顯存,帶寬456GB/s,峰值算力197 TOPS。
還有低一檔的銳炫Pro B50,面向圖形工作站,擁有16個核心、16GB顯存、170 TOPS峰值算力。
目前已有華擎、藍戟、撼與、傲世、銘瑄、Senao、Lanner等多家廠商推出了不同形態的銳炫Pro B60/B50顯卡,包括MXM迷你卡、半高式刀卡、無風扇被動散熱等。
銘瑄、撼與更是打造了雙芯的銳炫Pro B60,單卡就有48GB顯存,八卡并行就有恐怖的384GB!
基于銳炫Pro B系列顯卡的工作站方案,也正在不斷涌現。
憑借酷睿Ultra 200H系列處理器、銳炫Pro B60專業顯卡,Intel正在打造令人耳目一新的端側AI硬件平臺方案,靈活滿足多行業多領域的不同需求,并且不斷優化,擁有更豐富的AI能力。
明年,隨著酷睿Ultra 300系列(Panther Lake)處理器的問世,隨著性能、能效的再次飛躍,相信Intel還會帶來更多驚喜玩法!