AI前沿 2026-05-15

端侧智能体迈入拐点,联发科如何把AI平台做成可交付的能力?

# 端侧智能体迈入拐点,联发科如何把AI平台做成可交付的能力?

2024年,当大模型还在云端“卷”参数规模时,一个更务实的信号正在浮现:AI真正走进日常生活,靠的或许不是更大的数据中心,而是每个人口袋里的那颗芯片。联发科最近的动作揭示了一个关键趋势——端侧智能体正在从概念走向可交付的产品。这家擅长“交钥匙”方案的芯片巨头,正在尝试把AI平台做成一个像4G/5G Modem一样标准化、易集成的能力模块。这背后,是一场关于边缘计算、模型压缩和生态协作的深刻变革。

## 为什么端侧AI突然“能打了”?

过去几年,终端跑AI一直被调侃为“玩具级”——人脸解锁、语音唤醒,充其量算锦上添花。但大模型的横空出世改变了一切。当GPT、Llama等模型通过量化、蒸馏、剪枝等技术将参数压缩到数十亿甚至十亿以内,智能手机和IoT设备第一次具备了运行“真·智能体”的潜力。

联发科看到的拐点有三个标志:第一,端侧NPU算力从几TOPS跃升至几十TOPS,比如天玑9300的APU 790已经能支持70亿参数大模型实时推理;第二,模型轻量化技术成熟,开发者可以用LoRA等方法在手机端微调模型;第三,用户需求从“被动响应”转向“主动服务”——比如让手机记住你的日程、自动调用App完成操作,这需要端侧有持久的意图理解和任务编排能力。

这些变化让端侧AI不再只是“加速”,而是真正的“智能体”。联发科敏锐地意识到,单纯卖芯片已经不够了,客户要的是一个开箱即用的AI底座。

## 从“交钥匙”到“交AI平台”:联发科的差异化打法

联发科历史上最擅长的一招是“Turnkey方案”——把基带、CPU、GPU、ISP打包成完整平台,降低手机厂商的研发门槛。现在,这一策略被复刻到了AI领域,但复杂度远超从前。

具体来看,联发科构建了三级交付体系:

**第一层:硬件底座。** 除了NPU本身,联发科强调异构计算——让CPU、GPU、NPU甚至ISP协同工作。例如在执行实时视频分析时,ISP提取特征,NPU做语义理解,GPU渲染界面,功耗却仅为纯GPU方案的十分之一。这种“智能调度”是硬件层面的核心竞争力。

**第二层:模型适配工具链。** 联发科发布了“NeuroPilot”平台的升级版,支持主流大模型(如Llama 2、Stable Diffusion)一键转换到自家芯片。更关键的是,他们提供了量化精度(INT4/INT8)的动态选择机制——开发者可以针对不同场景在速度和精度之间做权衡,比如相册分类用低精度,而文档摘要用高精度。

**第三层:端侧智能体框架。** 这是最值得关注的部分。联发科联合合作伙伴推出了“Agent SDK”,让开发者在端侧定义“智能体行为”。例如,一个购物助手智能体可以本机运行,通过调用系统级API读取短信验证码、自动跳转支付页面,整个过程无需联网。这实际上是把云端的RAG(检索增强生成)和工具调用能力搬到了本地。

这种三层打包,使得终端厂商不必自己从零搭建AI Infra,只需要像调用摄像头一样调用“AI平台”的能力。联发科的目标是让AI成为芯片标配,就像当年的DSP(数字信号处理器)一样。

## 商业影响:谁在受益,谁在焦虑?

端侧AI的可交付化,首先解放的是手机厂商。过去OPPO、vivo、小米等厂商做AI功能,要么依赖云端接口(延迟高、成本贵、隐私风险),要么自己养上百人算法团队(性价比低)。联发科提供的标准化平台,让中小厂商也能推出媲美旗舰机的AI体验——这意味着AI能力不再只是苹果、三星的专属,中端机也能拥有本地大模型。

更深远的影响在IoT和汽车领域。智能家居设备(如智能音箱、摄像头)受限于算力和功耗,过去只能做简单指令。联发科将70亿参数模型塞进功耗低于5W的边缘芯片,使得这些设备能理解复杂语义、执行多轮对话,甚至联动多个设备。例如,一个智能门锁可以通过本地模型识别外卖员的面部并自动开门、通知主人,整个过程在1秒内完成。

对于高通来说,这显然不是好消息。在高端芯片市场,骁龙仍然占据旗舰位置,但联发科通过“AI平台化”正在快速下沉。更值得警惕的是,联发科的方案不绑定单一模型,而是支持多种开源模型框架,这对开发者的吸引力极大——他们可以自由更换模型,而不必更换硬件平台。

当然,挑战同样存在。端侧AI的推理准确性目前仍低于云端大模型,尤其是在处理长文本和复杂逻辑时。联发科的做法是用“混合AI”作补充——简单任务本地处理,复杂任务云端兜底。但这需要芯片、OS和应用层的深度协作,联发科能否像当年推动5G标准化那样推动端侧AI生态,仍是未知数。

## 拐点已至,但路还很长

当“端侧智能体”从PPT变成手机里的一个功能,联发科证明了芯片公司可以不只是“卖沙子”,而是成为AI时代的“方案整合者”。他们的AI平台策略,本质上是在做两件事:降低技术门槛,和分摊不确定性。对于整个行业而言,这意味着AI普惠化的关键一步——不是每个人都需要理解Transformer,但每个人都会使用智能体。

接下来的竞争,将围绕三个维度展开:模型推理效率(每瓦特算力下能跑多大模型)、工具链的易用性(开发者三天能上手还是三周),以及生态兼容性(能否适配安卓、HarmonyOS、Linux等不同系统)。联发科似乎走在正确的方向上,但拐点之后,往往是更陡峭的爬坡。

配图

← 芯驰科技完成近1亿美金C轮融资,加码汽车到具身智能全栈「芯」突破 ST龙韵:全资子公司拟挂牌出售投资性房地产 →

暂无评论