AI 已成為 PC、手機(jī)行業(yè)這兩年最熱門的詞匯,雖然由于種種原因 Windows 系統(tǒng)自帶的 AI 功能目前尚無法使用,但鑒于 AI 行業(yè)處于一個高速發(fā)展期,幾乎每三到六個月就有諸多變化,使用獨(dú)立第三方工具可以提供最及時的體驗(yàn)。
在 AI 使用上分為云端和本地兩種部署方式,二者各有優(yōu)劣:
▼Intel 官方推出的本地 AI 應(yīng)用 AI PLAYGROUND
本地和云端應(yīng)用并沒有絕對的優(yōu)劣之分,更多應(yīng)該根據(jù)實(shí)際需求來靈活地選擇云端還是本地。比如最近OpenAI開源的gpt-oss就提供了120b和20b兩個版本,120b適合部署在服務(wù)器或高性能設(shè)備上,而20b版本則很適合在個人筆記本和臺式機(jī)上運(yùn)行。
本篇測試基于零刻 GTi15 Ultra,配置為:
▼零刻 GTi15 Ultra
▼零刻 GTi15 Ultra+EX PRO 顯卡擴(kuò)展塢+影馳 RTX4070Ti Super 大將
AI 服務(wù)分別運(yùn)行在 CPU、GPU、NPU 以及外置 EX Pro 顯卡擴(kuò)展塢上,測試/玩法主要基于:
本次體驗(yàn)的主要內(nèi)容是生圖和語言大模型,希望通過本篇簡單的測試,能夠讓大家了解只要有一臺性能足夠強(qiáng)勁的PC,本地部署和使用AI的門檻其實(shí)是非常低的。以本次測試的零刻GTi15 Ultra采用的Intel Ultra9 285H處理器為例,官方標(biāo)稱總AI算力已經(jīng)達(dá)到99 TOPS(Int8),其中GPU 77TOPS、NPU 13TOPS、CPU 9TOPS,支持的AI框架包括OpenVINO?、WindowsML、DirectML、ONNX RT、WebGPU、WebNN。
AI算力方面相較于上一代Ultra9 185H的34.5 TOPS,本代大幅提升到99 TOPS,187%的提升幅度十分明顯。尤其是GPU部分77TOPS的INT8算力,理論上已經(jīng)超越了RTX 3050(70TOPS INT8),接近RTX 3060(102TOPS INT8),而且最高128GB內(nèi)存也遠(yuǎn)超入門級顯卡8GB/12GB顯存的配置。
目前最常見的 AI 應(yīng)用可以簡單地分為如下幾類:
每一大類都會有很多具體的應(yīng)用,比如文本生成類就有搜索、代碼修改/生成、文本潤色/生成、旅游規(guī)劃、知識庫等各種具體的應(yīng)用。Intel AI Playground是Intel官方針對Ultra處理器和Arc顯卡專門適配的工具,目前主要提供了圖片生成(文生圖)、圖片增強(qiáng)(放大、重繪、擴(kuò)圖)、問答等功能??梢砸绘I下載包含運(yùn)行環(huán)境、大模型在內(nèi)的全部文件,并且可以自動調(diào)用算力更高的GPU,實(shí)現(xiàn)傻瓜式AI部署。
▼圖片生成
▼圖片增強(qiáng)(擴(kuò)圖)
▼問答
不過需要注意的是Intel AI Playground對網(wǎng)絡(luò)的要求比較高,需要良好的連通性,才能體驗(yàn)這種傻瓜式的一鍵安裝服務(wù)。官方程序界面內(nèi)未提供的模型,也可以自行從網(wǎng)絡(luò)下載后,放置到對應(yīng)文件夾,然后在軟件內(nèi)進(jìn)行調(diào)用。
配置方面,這臺零刻GTi15 Ultra采用Intel Ultra9 285H處理器,搭配32(16+16)GB DDR5-5600內(nèi)存,Win11專業(yè)版系統(tǒng)。
由于某位Intel大神基于秋葉大佬的繪世整合包,修改的能夠調(diào)用Arc核顯的版本目前只支持Intel Ultra 1XX系列處理器,這次測試CPU和獨(dú)立顯卡部分基于秋葉大佬的繪世整合包,而GPU部分直接使用Intel AI Playground,使用相同的模型測試出圖速度。
測試統(tǒng)一使用20Steps,分別測試生成512x512和1024x1024兩種分辨率的圖片:
▼生圖速度外置 GPU>內(nèi)置 GPU>CPU
顯存占用方面,Intel AI Playground生成512x512圖片時僅占用2.6GB,系統(tǒng)默認(rèn)提供了最高18GB的共享顯存,空間還是非常富裕的。
CPU生成512x512圖片時,任務(wù)管理器內(nèi)顯示python占用了6.4GB內(nèi)存,相比GPU模式明顯更多,不過總內(nèi)存32GB也依然有很大富余空間。
問答模型測試中,我們測試了本地大模型生成速度,CPU部分使用官方版Ollama,GPU部分則使用魔塔社區(qū)可以下載到的Intel官方提供的優(yōu)化版Ollama(調(diào)用GPU)。使用三個問題測試生成速率(Tokens/s),三個問題分別是數(shù)學(xué)題、普通問答和編程題目,來測試大模型生成速率。
▼Ollama 運(yùn)行 Deepseek-R1:8B 占用內(nèi)存約6.5GB,對于 32GB 的內(nèi)存壓力不大,對生成效果要求較高可以適當(dāng)提高模型參量(14b 或 32b)
CPU模式下三個問題的生成速率分別為11.61、11.57、11.41tokens/s,屬于比較可用的水平(一般生成token/s >10生成答案才夠快),而GPU模式下則依次為13.96、13.51、13.4tokens/s,GPU生成速率大約是CPU的120%。
而gpt-oss:20b是OpenAI新開源的兩個模型之一(另外一個是參數(shù)量更大的120b),是一個中型開放模型,很適合用于低延遲的本地部署,能力方面也很接近于o3大模型。
由于 Intel 優(yōu)化版的 Ollama 暫時還未適配該模型(官方反饋適配中),使用 Ollama 官方(CPU)部署 gpt-oss:20b 進(jìn)行測試,實(shí)測內(nèi)存占用約13.6GB,對于 32GB 內(nèi)存的零刻 GTi15 Ultra 來說壓力不大。
生成速率方面雖然是 20B 大模型,實(shí)測三個問題生成速度分別為8.76、8.67、8.47 tokens/s。
不過gpt-oss:20b的思考深度計(jì)算并不像deep-seek那樣耗時,實(shí)際三個問題分別耗時24、26、65秒,對于本地應(yīng)用來說速度也是足夠快的。
AI IDE在AI應(yīng)用中已經(jīng)逐漸從嘗鮮變?yōu)閯傂?,無論是職業(yè)碼農(nóng)、編程初學(xué)者,還是使用代碼進(jìn)行自動化測試的工程技術(shù)人員,AI的應(yīng)用都在讓編寫/調(diào)試代碼變得更加高效(當(dāng)然AI不能完全替代人工,它是提高效率的工具)。
我個人最近在使用 Continue,它是一款可以搭配 VSCode 和 JetBrians 使用的 AI 編程工具,支持聊天(Chat)、代碼補(bǔ)全(Autocomplete)、編輯(Edit)、智能體(Agent)。
Continue 本身不開發(fā) AI 大模型,但支持本地和云端接入各種大模型,我的使用方式是:
具體部署教程的內(nèi)容,由于網(wǎng)絡(luò)上已經(jīng)有很多詳細(xì)文章/視頻介紹,這里就不再重復(fù)造輪子了。實(shí)測使用 ollama 部署 gpt-oss:20b 作為 chat 模型,生成一個 pyqt 的 UI hello world! 程序,大約用時1分30~40秒左右。如果替換成 codeqwen:7B、codellama:7b/13b、codegeex4:9b 等類參量更小的模型,生成速度應(yīng)該會更快一些。
不過對于速度要求更快的代碼補(bǔ)全,Continue內(nèi)可以選擇參數(shù)量更小、效率更高的Qwen2.5-Coder 1.5B,實(shí)際使用中大概在輸入停下幾秒后補(bǔ)全代碼就會彈出,速度還是比較快的。
使用AI為網(wǎng)上下載的代碼生成注釋,能夠更方便地理解代碼運(yùn)行邏輯,實(shí)測使用零刻GTi15 Ultra + Ollama運(yùn)行g(shù)pt-oss:20b生成注釋的速度同樣是分鐘級別(根據(jù)代碼長度和復(fù)雜度成比例),這已經(jīng)是非??捎玫乃俣攘?。對于學(xué)生/編程初學(xué)者/非軟件開發(fā)人員而言,AI輔助編程可以讓用戶更快地學(xué)習(xí)代碼,參考AI生成/編輯/Debug的過程相比傳統(tǒng)搜索效率提升不少。如果您手頭也有足夠性能的PC/Mac,可以考慮嘗試使用本地/云端AI工具來提升工作效率。
▼Chat+Edit 生成并調(diào)試打開 txt 文件并 print
▼Chat 生成注釋
除了自行部署 AI 應(yīng)用,實(shí)際上還有不少的綜合型 AI 助手,比如被廣泛使用的豆包。它的本地版本整合了 AI 瀏覽器與Agent 功能,提供了包括寫作、編程、圖像生成、視頻生成(測試)、本地文件回答等服務(wù)。
其中較為有趣的是新增的 AI 通話功能,用戶可以通過語音通話的方式,逐步讓 AI 助手協(xié)助完成各項(xiàng)任務(wù)。例如,我曾通過多輪對話,讓 AI 助手幫忙匯總了筆記本電腦市場的部分銷售數(shù)據(jù),這種語音交互方式頗為便捷。
當(dāng)然,語音交互的前提是需要配備麥克風(fēng)和音箱,這就用到了 GTi15 Ultra 所集成的 AI 降噪麥克風(fēng)陣列及內(nèi)置音箱。在實(shí)際體驗(yàn)中,GTi15 Ultra 的 AI 降噪麥克風(fēng)陣列能夠有效抑制環(huán)境噪音,這對于 AI 語音應(yīng)用的流暢運(yùn)行和通話質(zhì)量的保障而言至關(guān)重要。
▼夏日空調(diào)房間+開啟風(fēng)扇的時,AI 降噪有效濾除環(huán)境噪音,錄音底噪非常干凈
通過本次測試可以看出,現(xiàn)代PC在本地AI應(yīng)用方面已經(jīng)具備了相當(dāng)不錯的性能表現(xiàn)。無論是圖像生成還是語言模型,都能夠提供實(shí)用的體驗(yàn)。特別是零刻GTi15 Ultra采用的Intel Ultra9 285H處理器,其AI算力提升顯著,為本地AI應(yīng)用提供了強(qiáng)有力的硬件支撐。
總的來說,隨著硬件性能的不斷提升和AI技術(shù)的日趨成熟,本地AI應(yīng)用的門檻正在快速降低。對于有一定技術(shù)基礎(chǔ)的用戶來說,搭建屬于自己的本地AI環(huán)境已經(jīng)變得觸手可及。
好了,我是KC,本篇測評到此結(jié)束。如果大家對于零刻GTi15 Ultra還有什么疑問,可以在評論區(qū)留言,我會盡可能回復(fù)或者在下篇文章中更新。感謝大家的觀看,希望大家一鍵三連支持一波~