端侧生成式人工智能(AIGC)在近几年频频登上技术报告的封面,尤其在移动设备上实现离线推理的案例屡见不鲜。业内普遍关心:端侧AIGC是否有能力彻底取代传统的云端算力供给?
在 ARM v9 架构的加持下,部分图像修复、风格迁移模型的参数量已压缩至原来的 15%,推理延迟可控制在 30 毫秒以内。实际测评显示,一部搭载 8 GB RAM 的中端手机,在离线生成 1024×1024 像素的艺术作品时,耗电仅相当于 5 分钟的普通视频播放。
据 IDC 2024 年报告,全球云计算服务的 AI 计算需求年增长率保持在 48%。大模型的训练成本仍然高达数千万美元,只有集中式数据中心能够提供所需的 GPU 密度和散热能力。对于企业级内容创作平台而言,实时协同、跨设备同步以及大规模知识库检索仍是云端不可替代的核心竞争力。
实际使用中,摄影爱好者更倾向于在现场使用端侧风格预览,以免因网络波动错失灵感;而专业影视后期则依赖云端渲染来处理 8K 超高清素材的全局光照。两者的需求差异导致业界逐步形成“端侧即取、云端全算”的混合架构。华为的“云边协同”方案已经在 2025 年实现了 70% 的渲染任务在边缘节点完成,剩余 30% 仍回传至中心数据中心。
综观技术演进与商业落地,端侧 AIGC 更像是对云端服务的补充而非全盘取代——当设备能够在本地完成“所见即所得”的快速反馈时,创作者的创作节奏得到保留;而当任务跨越单机算力极限时,云端的规模化算力仍是唯一的支撑点。于是,行业的下一步或许是让两者在网络条件不佳的情况下自动切换,真正做到“随时随地,算力随需”。而这条路的尽头,仍有许多未知等待被探索
所有资源来源于网络,如有侵权请联系站长。
参与讨论
这玩意儿离线用起来真的爽,再也不用担心网络卡顿了
存储不够咋整啊,手机装不下完整模型
30毫秒延迟?实测感觉不止吧🤔
边拍边处理确实方便,之前旅游时深有体会