可能大家最近一两年都有一种感觉,那就是PC厂商几乎都在大力推广AI PC的概念,似乎AI时代已经到来,不买AI PC就意味着落伍,跟不上时代的潮流。那么,这个AI PC到底只是一个为了更好销售PC的概念,还是真有实用的价值?当然,我们不能当认知“二极管”,所以不妨来仔细分析一下。
普通PC也能实现AI应用,它算不算AI PC?
要回答这个问题,我们得先来看看AI PC的定义。
AI PC(人工智能个人电脑) 是集成专用人工智能加速硬件(如NPU、GPU)的PC设备,可高效运行AI推理任务和智能应用。其核心特征包括:
内置AI算力模块,支持实时语音识别、图像处理、自然语言生成等;
多核CPU+GPU+NPU协同架构,兼顾传统计算与AI加速需求;
软件生态适配,可运行专业AI工具链及轻量化端侧大模型。
AI PC突破了传统PC仅作为“算力终端”的局限,成为具备智能交互、自动化办公、实时数据分析等能力的下一代生产力工具,尤其适合企业数字化转型和开发者创新场景。
实际上,这个定义也来自一台AI PC用LMStudio加载Qwen3大模型得到的回答。那么,答案已经很清晰了,普通PC,特别是搭载了高性能CPU和GPU的PC,虽然可以通过CPU、GPU来进行端侧AI计算,但从严格的定义上来讲确实不算AI PC,因为它没有NPU(即便这暂时还不重要)。但是,这并不妨碍普通PC去完成大量的AI应用工作。
▲各种在线AI工具只需要联网的普通PC就能使用
例如,目前在线的AI工具非常丰富,甚至只要稍微有点电脑知识,都能轻松学会使用AI生成剧本文案、关键帧画面到视频的“一条龙”流程,大家在短视频平台经常看到的AI短剧就是这么玩的,而其他诸如简单的新媒体插图、文章、PPT等AIGC工作,使用在线AI工具也一样容易完成。而要完成这些工作,一台网速OK的普通PC就足够了。
从这一点来讲,AI PC并不是满足未来AI应用需求的刚需,准确来说是一个“充分不必要”条件。同时,在线AI工具开发商不会从硬件上去限制用户,因为算力他们会解决,用户只需要充SVIP就好,毕竟谁会和钱过不去呢是吧。
那么,可能看到这里是否就可以下结论AI PC是个噱头了呢?显然不是。在线AI工具确实不需要本地PC提供算力,但它要你充SVIP啊,而且你生成的内容它全知道,可以说完全没有任何隐私可言,这对于有商业机密、隐私保护需求的用户来讲是无法接受的。
此外,在线AI工具在内容生成方面也有限制,可定制化的部分(包括大模型选择的自由度)显然也不及本地方案。所以,在这种需求下,精于本地AI计算的AI PC或者高性能PC就成为了比在线AI工具更好的选择。
所以代表AI PC的NPU,到底有啥用?
NPU作为定义AI PC的重要依据,它到底是个什么东西?让我们看看AI PC给出的答案:
NPU(Neural Processing Unit) 是专为人工智能和深度学习任务设计的芯片,主要用于加速神经网络推理过程。它的核心优势在于:
高能效比:针对AI计算中的矩阵运算、卷积等操作进行硬件级优化,比CPU/GPU更高效;
专用架构:通过定制化的计算单元(如张量核心)提升AI模型的执行速度和响应能力;
低延迟:支持实时语音识别、图像处理、自然语言生成等场景。
例如,AMD Ryzen AI引擎即为NPU模块,可协同CPU/GPU实现端侧AI加速,在AI PC中用于增强智能办公(如实时翻译)、自动化任务处理及轻量化模型运行。
所以,NPU本身就是为轻量化模型而设计的,主要实现一些负载较小的AI加速功能。由于它的架构专为AI计算而生,因此相比功率更高的CPU/GPU来讲具备更高的能效比,内置NPU的CPU在处理这些AI应用时就可以使用NPU,从而降低对CPU的资源占用,让CPU可以全力运行通用程序,保证最佳效率和响应速度。
▲钉钉的网络视频会议摄像头就可以直接调用NPU加速的“Windows录音室效果”
例如,AMD锐龙7 8845H处理器就内置了AI Ryzen NPU,可以对一些AI功能进行加速。我们通过HWINFO等工具对NPU的频率、使用率进行监控就可以看到,当打开Windows 11的“Windows录音室效果”里的“自动取景”“眼神交流”“背景效果”三项AI特效时,NPU的占用率达到了14.7%,证明它已经开始对特效进行AI加速。
▲游戏加加在游戏中也可以看到NPU的频率与占用率的变化
NPU在游戏AI工具中也得以应用。以《永劫无间》为例,开启AMD Ryzen AI NPU模式记录“超能时刻”,在游戏中激活此功能的时候,可以利用NPU来进行高光时刻视频片段的录制,从而避免占用处理器和显卡的资源影响游戏帧率。
当然,目前能用到NPU的AI工具还并不算特别多,但随着生态圈的发展,可以支持NPU的AI应用会越来越多。例如微软“智能Copilot副驾驶”、Amuse和Stable Diffusion本地AI出图工具、DaVinci剪辑工具等等都开始提供和优化对NPU的支持。
此外,大力推动AI PC概念的厂商,像是AMD也并非所有最新的CPU都内置了NPU。例如台式机平台定位旗舰的AMD锐龙 9 9950X、移动平台的AMD锐龙9 9955HX3D,都没有内置NPU。其实道理很简单,这类高性能处理器一般都会搭配强力GPU使用,已经可以提供强大的AI算力,同时这样的发烧级配置也不会特意追求轻量化AI应用时的能效比,所以就没必要搭载NPU了。
因此,相对准确的说法应该是AI PC是一个本地AI加速的解决方案,但并不是唯一方案。没有NPU的高性能PC一样可以满足本地AIGC的需求,只不过在未来,具备NPU的AI PC可以实现更多的轻量化AI辅助功能。
大显存集显是本地AI的经济型解决方案,但并非高效方案
那么,厂商力推的AI PC产品,在加载运行本地AI大模型时有些什么特点呢?我们知道要通过GPU进行AI计算的话,本地大模型需要加载到显存里,如果大模型体积超过显存容量,就会“爆显存”,转为调用CPU进行计算导致效率暴跌。而对于独立显卡来讲,显存容量是非常金贵的,主流显卡一般只有8GB~16GB,强如RTX 5090,也只有32GB显存,而Llama 4 109B大模型就已经要占用54GB左右显存,很显然RTX 5090也搞不定它。
▲在使用内存占用小于8GB的大模型时,笔记本可以用搭载的RTX 5060进行计算
▲如果模型的内存占用大于8GB,则会转为使用处理器进行计算
以一款主流独显笔记本为例,在使用DeepSeek-R1-distill-llama-8b模型时,由于内存占用低于8GB,所以可以完美利用笔记本搭载的RTX 5060独显进行计算,处理速度可达48.47 tok/s;换成qwen3-14b模型后,内存占用高于8GB,已经超过RTX 5060显存上限,所以会自动切换到锐龙9 8945HX CPU进行计算,处理速度为9.33 tok/s,效率降低很多。
但是,我们知道集显的显存来自系统内存,这就意味着只要系统允许,集显就可以使用海量的内存来当显存用,从而顺利加载超大的模型。要知道内存成本比显存低多了,一两万的RTX 5090才有32GB显存,而Radeon 780M/890M等集显就支持最高分配32GB显存,Radeon 8060S集显甚至支持分配96GB显存。
▲使用主机自带的AI PC应用加载运行109B大模型
以搭载AMD锐龙AI MAX+ 395处理器的迷你电脑为例,由于拥有128GB超大内存,在给它内置的Radeon 8060S集显划分64GB显存的情况下已经可以加载运行109B的大模型。
▲使用LM Studio加载运行Llama-4-scout-17b-16e-instruct模型(53.83GB)
同样,我们使用AMD锐龙AI MAX+ 395迷你电脑加载运行Llama-4-scout-17b-16e-instruct模型,模型大小大约为53.83GB,加载之后占用40.2GB显存。而从测试结果可以看到,Radeon 8060S的计算速度大约为8.73 tok/s(总共227 tokens)。
可以说带强力集显的AI PC在运行大体积模型这一点上确实有独特的优势。但是,可以运行并不代表就高效……集显毕竟还是集显,即便是最强集显Radeon 8060S性能也只是持平主流的RTX 4060独显,算力和旗舰独显相比还是有很大差距,在加载较小模型时,具备强力独显的PC一般都相对集显有数倍的优势。
所以,对于主流的集显AI PC来讲,可以利用集显支持手动分配16GB~32GB大容量显存的优势去运行一些大体积的本地AI模型,虽说效率并不突出,但好歹能用,比独显爆显存后让CPU去计算还是要快不少。同时,这类集显AI PC在成本方面也有一定优势,配备Radeon 780M集显的迷你PC不到3000元,笔记本也不到4000元,对于有轻量化AIGC需求的用户来说更容易接受。
而AMD锐龙AI MAX+ 395迷你主机AI PC则属于一条独特的小赛道。它拥有主流独显级别的集显算力,而最高支持128GB统一内存划分96GB显存让它可以加载超大本地模型,解决“能用”的刚需,这一点是搭载单GPU独显的消费级AI PC无法做到的。但受限于集显算力水平,它也只是比较适合AI应用开发者快速出DEMO给客户演示,而重量级专业AI应用开发者,还是会选择多GPU的专业工作站与服务器。
总结:AI PC概念是AI生态成长中的阶段性产物
最后来简单总结一下吧。
从性能来讲,搭载AMD锐龙AI MAX+ 395处理器的迷你电脑凭借128GB统一内存和Radeon 8060S集显可加载运行Llama-4等大模型,实现了本地AI超大模型“能用”的刚需。但受限于集显算力,其效率仅与主流RTX 4060独显持平,在处理高负载AI任务时仍存在效率瓶颈,无法替代显存容量没有瓶颈的专业多GPU工作站。
但搭载强力集显的AI PC在成本方面有优势,因此算是轻量化AIGC需求用户的经济型解决方案。当然,高性能PC(包含无NPU的独显笔记本)亦可满足本地AIGC需求,但未来搭载NPU的AI PC将更擅长轻量化AI辅助功能,特别是对于移动用户来讲,NPU的高能效能带来更优秀的续航表现。
简而言之,AI PC通过集显与大内存组合实现“可用性”突破,但其算力和效率仍无法完全替代专业设备,主要是在成本、性能与适用场景间形成差异化竞争格局。
不过,随着CPU+NPU+GPU硬件性能的不断升级,等到AI功能已经完全融入到日常PC应用中时,大家用AI功能就像打开Word码字一样寻常,所有的PC都可以满足AI应用需求,这时AI PC的概念就完成了它在AI生态成长过程中的历史使命。