Intel 處理器 AI 玩法體驗:畫圖、大模型

 AI 已成為 PC、手機行業這兩年最熱門的詞彙,雖然由於種種原因 Windows 系統自帶的 AI 功能目前尚無法使用,但鑒於 AI 行業處於一個高速發展期,幾乎每三到六個月就有諸多變化,使用獨立第三方工具可以提供最及時的體驗。在 AI 使用上分為雲端和本地兩種部署方式,二者各有優劣:雲端部署:優點包括算力更高、單位算力成本更低、部署更簡單(很多服務商提供了一鍵式部署),模型更新速度也很快。缺點在於數據存儲在雲端、響應速度受限於網絡和服務提供商、內容被審核(熟悉賽博畫圖的用戶應該深有體會)、部分模型可能因服務商調整被下架無法提供穩定的長時間服務。本地部署:優點包括數據安全性好、響應速度快、以及自有部署可以提供穩定的服務,內容不受雲端審核。缺點在於算力相對較低,單位算力成本相對較高。▼Intel 官方推出的本地 AI 應用 AI PLAYGROUND

Intel 處理器 AI 玩法體驗:畫圖、大模型

 本地和雲端應用並沒有絕對的優劣之分,更多應該根據實際需求來靈活地選擇雲端還是本地。比如最近OpenAI開源的gpt-oss就提供了120b和20b兩個版本,120b適合部署在服務器或高性能設備上,而20b版本則很適合在個人筆記本和台式機上運行。本篇測試基於零刻 GTi15 Ultra,配置為:Intel Ultra9 285H32GB 內存Intel Arc140T 核顯/影馳 RTX4070Ti Super 大將(EX Pro 顯卡擴展塢)▼零刻 GTi15 Ultra

Intel 處理器 AI 玩法體驗:畫圖、大模型_新浪眾測

 ▼零刻 GTi15 Ultra+EX PRO 顯卡擴展塢+影馳 RTX4070Ti Super 大將

Intel 處理器 AI 玩法體驗:畫圖、大模型_新浪眾測

 AI 服務分別運行在 CPU、GPU、NPU 以及外置 EX Pro 顯卡擴展塢上,測試/玩法主要基於:無需命令的 Intel AI Playground 應用秋葉大佬的 SD 繪世整合包僅需敲幾行代碼的 Ollama本次體驗的主要內容是生圖和語言大模型,希望通過本篇簡單的測試,能夠讓大家瞭解只要有一台性能足夠強勁的PC,本地部署和使用AI的門檻其實是非常低的。以本次測試的零刻GTi15 Ultra採用的Intel Ultra9 285H處理器為例,官方標稱總AI算力已經達到99 TOPS(Int8),其中GPU 77TOPS、NPU 13TOPS、CPU 9TOPS,支援的AI框架包括OpenVINO™、WindowsML、DirectML、ONNX RT、WebGPU、WebNN。

Intel 處理器 AI 玩法體驗:畫圖、大模型_新浪眾測

 

Intel 處理器 AI 玩法體驗:畫圖、大模型_新浪眾測

 

Intel 處理器 AI 玩法體驗:畫圖、大模型_新浪眾測

 AI算力方面相較於上一代Ultra9 185H的34.5 TOPS,本代大幅提升到99 TOPS,187%的提升幅度十分明顯。尤其是GPU部分77TOPS的INT8算力,理論上已經超越了RTX 3050(70TOPS INT8),接近RTX 3060(102TOPS INT8),而且最高128GB內存也遠超入門級顯卡8GB/12GB顯存的配置。

Intel 處理器 AI 玩法體驗:畫圖、大模型_新浪眾測

 

INTEL AI PLAYGROUND 都能做什麼?

目前最常見的 AI 應用可以簡單地分為如下幾類:文本生成圖像生成語音生成視頻生成每一大類都會有很多具體的應用,比如文本生成類就有搜索、代碼修改/生成、文本潤色/生成、旅遊規劃、知識庫等各種具體的應用。Intel AI Playground是Intel官方針對Ultra處理器和Arc顯卡專門適配的工具,目前主要提供了圖片生成(文生圖)、圖片增強(放大、重繪、擴圖)、問答等功能。可以一鍵下載包含運行環境、大模型在內的全部文件,並且可以自動調用算力更高的GPU,實現傻瓜式AI部署。▼圖片生成

Intel 處理器 AI 玩法體驗:畫圖、大模型_新浪眾測

 ▼圖片增強(擴圖)

Intel 處理器 AI 玩法體驗:畫圖、大模型_新浪眾測

 ▼問答

Intel 處理器 AI 玩法體驗:畫圖、大模型_新浪眾測

 不過需要注意的是Intel AI Playground對網絡的要求比較高,需要良好的連通性,才能體驗這種傻瓜式的一鍵安裝服務。官方程式界面內未提供的模型,也可以自行從網絡下載後,放置到對應文件夾,然後在軟件內進行調用。

AI 性能測試

配置方面,這台零刻GTi15 Ultra採用Intel Ultra9 285H處理器,搭配32(16+16)GB DDR5-5600內存,Win11專業版系統。

Intel 處理器 AI 玩法體驗:畫圖、大模型_新浪眾測

 

賽博畫圖速度

由於某位Intel大神基於秋葉大佬的繪世整合包,修改的能夠調用Arc核顯的版本目前只支援Intel Ultra 1XX系列處理器,這次測試CPU和獨立顯卡部分基於秋葉大佬的繪世整合包,而GPU部分直接使用Intel AI Playground,使用相同的模型測試出圖速度。測試統一使用20Steps,分別測試生成512×512和1024×1024兩種解像度的圖片:單純依靠CPU,強如Ultra9 285H也需要1分鐘多的時間才能生成一張512×512的圖片Arc140 T核顯生成512×512僅需8.3秒,可用性大大提高,可以滿足日常測試/修改各種提示詞和參數來學習生成流程/輕量級生產力使用外置EX PRO顯卡塢+RTX4070 Ti Super,出圖速度和上限就很高了,可以輕鬆作為生產力工具使用

Intel 處理器 AI 玩法體驗:畫圖、大模型_新浪眾測

 ▼生圖速度外置 GPU>內置 GPU>CPU

Intel 處理器 AI 玩法體驗:畫圖、大模型_新浪眾測

 顯存佔用方面,Intel AI Playground生成512×512圖片時僅佔用2.6GB,系統預設提供了最高18GB的共享顯存,空間還是非常富裕的。

Intel 處理器 AI 玩法體驗:畫圖、大模型_新浪眾測

 CPU生成512×512圖片時,任務管理器內顯示python佔用了6.4GB內存,相比GPU模式明顯更多,不過總內存32GB也依然有很大富餘空間。

Intel 處理器 AI 玩法體驗:畫圖、大模型_新浪眾測

 

問答模型 Deepseek-R1:8B & gpt-oss:20B

問答模型測試中,我們測試了本地大模型生成速度,CPU部分使用官方版Ollama,GPU部分則使用魔塔社區可以下載到的Intel官方提供的優化版Ollama(調用GPU)。使用三個問題測試生成速率(Tokens/s),三個問題分別是數學題、普通問答和編程題目,來測試大模型生成速率。▼Ollama 運行 Deepseek-R1:8B 佔用內存約6.5GB,對於 32GB 的內存壓力不大,對生成效果要求較高可以適當提高模型參量(14b 或 32b)

Intel 處理器 AI 玩法體驗:畫圖、大模型_新浪眾測

 CPU模式下三個問題的生成速率分別為11.61、11.57、11.41tokens/s,屬於比較可用的水平(一般生成token/s >10生成答案才夠快),而GPU模式下則依次為13.96、13.51、13.4tokens/s,GPU生成速率大約是CPU的120%。

Intel 處理器 AI 玩法體驗:畫圖、大模型_新浪眾測

 

Intel 處理器 AI 玩法體驗:畫圖、大模型_新浪眾測

 而gpt-oss:20b是OpenAI新開源的兩個模型之一(另外一個是參數量更大的120b),是一個中型開放模型,很適合用於低延遲的本地部署,能力方面也很接近於o3大模型。

Intel 處理器 AI 玩法體驗:畫圖、大模型_新浪眾測

 由於 Intel 優化版的 Ollama 暫時還未適配該模型(官方反饋適配中),使用 Ollama 官方(CPU)部署 gpt-oss:20b 進行測試,實測內存佔用約13.6GB,對於 32GB 內存的零刻 GTi15 Ultra 來說壓力不大。

Intel 處理器 AI 玩法體驗:畫圖、大模型_新浪眾測

 生成速率方面雖然是 20B 大模型,實測三個問題生成速度分別為8.76、8.67、8.47 tokens/s。

Intel 處理器 AI 玩法體驗:畫圖、大模型_新浪眾測

 不過gpt-oss:20b的思考深度計算並不像deep-seek那樣耗時,實際三個問題分別耗時24、26、65秒,對於本地應用來說速度也是足夠快的。

Intel 處理器 AI 玩法體驗:畫圖、大模型_新浪眾測

 

Intel 處理器 AI 玩法體驗:畫圖、大模型_新浪眾測

 

Intel 處理器 AI 玩法體驗:畫圖、大模型_新浪眾測

 

本地 AI 應用實例: VSCode + Cotinue 插件 + Ollama ,實現本地 AI 輔助編程

AI IDE在AI應用中已經逐漸從嚐鮮變為剛需,無論是職業碼農、編程初學者,還是使用代碼進行自動化測試的工程技術人員,AI的應用都在讓編寫/調試代碼變得更加高效(當然AI不能完全替代人工,它是提高效率的工具)。我個人最近在使用 Continue,它是一款可以搭配 VSCode 和 JetBrians 使用的 AI 編程工具,支援聊天(Chat)、代碼補全(Autocomplete)、編輯(Edit)、智能體(Agent)。

Intel 處理器 AI 玩法體驗:畫圖、大模型_新浪眾測

 Continue 本身不開發 AI 大模型,但支援本地和雲端接入各種大模型,我的使用方式是:VSCode 安裝 Continue 插件Ollama 本地部署大模型Continue 調用本地 Ollama 部署的大模型具體部署教程的內容,由於網絡上已經有很多詳細文章/視頻介紹,這裏就不再重複造輪子了。實測使用 ollama 部署 gpt-oss:20b 作為 chat 模型,生成一個 pyqt 的 UI hello world! 程式,大約用時1分30~40秒左右。如果替換成 codeqwen:7B、codellama:7b/13b、codegeex4:9b 等類參量更小的模型,生成速度應該會更快一些。

Intel 處理器 AI 玩法體驗:畫圖、大模型_新浪眾測

 不過對於速度要求更快的代碼補全,Continue內可以選擇參數量更小、效率更高的Qwen2.5-Coder 1.5B,實際使用中大概在輸入停下幾秒後補全代碼就會彈出,速度還是比較快的。

Intel 處理器 AI 玩法體驗:畫圖、大模型_新浪眾測

 使用AI為網上下載的代碼生成註釋,能夠更方便地理解代碼運行邏輯,實測使用零刻GTi15 Ultra + Ollama運行gpt-oss:20b生成註釋的速度同樣是分鐘級別(根據代碼長度和複雜度成比例),這已經是非常可用的速度了。對於學生/編程初學者/非軟件開發人員而言,AI輔助編程可以讓用戶更快地學習代碼,參考AI生成/編輯/Debug的過程相比傳統搜索效率提升不少。如果您手頭也有足夠性能的PC/Mac,可以考慮嚐試使用本地/雲端AI工具來提升工作效率。▼Chat+Edit 生成並調試打開 txt 文件並 print

Intel 處理器 AI 玩法體驗:畫圖、大模型_新浪眾測

 ▼Chat 生成註釋

Intel 處理器 AI 玩法體驗:畫圖、大模型_新浪眾測

 

AI 與語音

除了自行部署 AI 應用,實際上還有不少的綜合型 AI 助手,比如被廣泛使用的豆包。它的本地版本整合了 AI 瀏覽器與Agent 功能,提供了包括寫作、編程、圖像生成、視頻生成(測試)、本地文件回答等服務。

Intel 處理器 AI 玩法體驗:畫圖、大模型_新浪眾測

 其中較為有趣的是新增的 AI 通話功能,用戶可以通過語音通話的方式,逐步讓 AI 助手協助完成各項任務。例如,我曾通過多輪對話,讓 AI 助手幫忙彙總了筆記本電腦市場的部分銷售數據,這種語音交互方式頗為便捷。

Intel 處理器 AI 玩法體驗:畫圖、大模型_新浪眾測

 當然,語音交互的前提是需要配備麥克風和音箱,這就用到了 GTi15 Ultra 所集成的 AI 降噪麥克風陣列及內置音箱。在實際體驗中,GTi15 Ultra 的 AI 降噪麥克風陣列能夠有效抑製環境噪音,這對於 AI 語音應用的流暢運行和通話質量的保障而言至關重要。

Intel 處理器 AI 玩法體驗:畫圖、大模型_新浪眾測

 ▼夏日空調房間+開啟風扇的時,AI 降噪有效濾除環境噪音,錄音底噪非常幹淨

Intel 處理器 AI 玩法體驗:畫圖、大模型_新浪眾測

 

總結

通過本次測試可以看出,現代PC在本地AI應用方面已經具備了相當不錯的性能表現。無論是圖像生成還是語言模型,都能夠提供實用的體驗。特別是零刻GTi15 Ultra採用的Intel Ultra9 285H處理器,其AI算力提升顯著,為本地AI應用提供了強有力的硬件支撐。總的來說,隨著硬件性能的不斷提升和AI技術的日趨成熟,本地AI應用的門檻正在快速降低。對於有一定技術基礎的用戶來說,搭建屬於自己的本地AI環境已經變得觸手可及。好了,我是KC,本篇測評到此結束。如果大家對於零刻GTi15 Ultra還有什麼疑問,可以在評論區留言,我會儘可能回覆或者在下篇文章中更新。感謝大家的觀看,希望大家一鍵三連支援一波~