2026 年,智能 正式进入“端云协同”的分水岭

互联网
2025
12/30
17:59
分享
评论

2026年,端云协同将成为智能 能否落地的关键,而阿里云正站在这条趋势的最前沿。

为什么 2026 年是关键节点?因为众多要素条件在同一时间接近成熟。

车端算力的上限突破。随着高通、英伟达等厂商持续推升车规级 SoC 的计算能力,车载芯片第一次在功耗、成本与稳定性之间,找到了一个相对可行的平衡点。

过去很长一段时间里,端侧 AI 在 上“不成立”,并不是因为需求不存在,而是因为算力、能耗和可靠性无法同时满足车规要求。新一代车载计算平台逐步量产,语音、多模态感知、基础推理等能力开始真正跑在车端,且具备持续可用性。

与此同时,大模型的“性价比”仍在快速提升。过去制约大模型上车的核心矛盾在于:小参数模型效果不够好,而 端侧的算力与功耗条件,又不足以支撑大参数模型稳定运行,二者长期无法兼得。结果是,大模型要么停留在云端,要么只能在车端以“精简版”的形式存在。

如前所述,车端算力提高的同时,模型也在优化,模型架构优化、推理效率提升以及量化、蒸馏等技术逐步成熟,在更小参数规模下实现接近甚至超出以往大参数的大模型效果,大模型具备真正“上车”的工程可行性,不再依赖极端算力堆叠,也不以牺牲体验为代价,而是在车端算力可承受的范围内,提供稳定、可预期的智能能力。

在这种情况下,主机厂逐步确定自己的智能化供应商,结合行业来看,企业并不满足于单点能力供应,而是希望在行业未来还不确定的情况下,找到一份更确定的答案,厂商是否有长期投入和系统级布局,成为决定性因素。

阿里云在智能 领域的优势,正体现在端云协同的完整布局上。在端侧,阿里云能够提供强大的模型选择,覆盖从多模态感知、语音理解到实时决策的多种应用场景,使车辆在有限算力下依然能稳定、高效地执行复杂任务。

从2023年至今,阿里通义团队已开源300多款模型,包含大语言模型千问Qwen及视觉生成模型万相Wan等两大基模系列,开源囊括文本生成模型、视觉理解/生成模型、语音理解/生成模型、文生图及视频模型等「全模态」,覆盖0.5B、0.6B、1.5B、1.7B、3B、4B、7B、8B、14B、30B、32B、72B、110B、235B、480B等「全尺寸」参数,支持中、英、法、德、西、俄、日、韩、越、阿拉伯等119种语言及方言。

2025年,通义团队首发Qwen3-Omni原生全模态大模型,纯模型端到端音频对话延迟低至211ms,该模型一经推出,迅速得到车企认可,几乎所有车企都开始测试Qwen3-Omni上车。

在云侧,阿里云提供领先的 AI 云服务,包括大规模训练、开源大模型以及持续迭代能力,为端侧模型的长期进化和能力更新提供动力。

阿里巴巴集团CEO吴泳铭日前宣布,未来三年,阿里将投入超过3800亿元,用于建设云和AI硬件基础设施,总额超过去十年总和。这也创下中国民营企业在云和AI硬件基础设施建设领域有史以来最大规模投资纪录。

这种端云结合的模式,不仅保障了车辆在关键场景下的安全与确定性,也让智能 具备了持续进化的能力,为车企提供了可落地、可扩展、可持续的整体解决方案。

端云协同,于云厂商而言是一次真正的洗牌。端云协同考验的已经不只是模型能力,而是“安全优先”的系统设计逻辑,车规级云基础设施,支撑高并发、低延迟的智能调度,足够大的生态,支撑真实生活场景等,阿里云踩中了中国车企当前最核心的需求。

THE END
广告、内容合作请点击这里 寻求合作
免责声明:本文系转载,版权归原作者所有;旨在传递信息,不代表 的观点和立场。

相关热点

相关推荐

1
3
Baidu
map