2026年通信行业策略报告:算力升维星座织网(附下载)

更新时间:2026-02-09 05:08:57     浏览:

  scaling 由 pre train 延续至 test-time,模型性能显著增强。GPT-o1 将 Scaling Law 的适用区间由静态的预训练参数量与训练算力,动态延伸至后训练的强化学习与思 维链蒸馏,以及推理阶段的迭代优化及验证筛选。

  模型性能优化,各大主流头部模型的调用次数跃增,AI 应用持续渗透。对比 2024 年 12 月 29 日周度数据和 2025 年 12 月 14 日周度数据,全平台模型调用次数同比增 长 1345%。分厂商来看,截至 2025 年 4 月底,Google 月均调用量一年内从 9.7T 增 至 480T(+50 倍)。截至 2025 年 5 月底,字节火山引擎日均调用量一年内从 0.12 万亿增至 16.4 万亿(+137 倍)。模型性能提升叠加 token 调用成本的大幅下降直接 推动 AI 应用渗透加速。根据 HAI 的统计,随着硬件性能的提升,模型的成本持续下 降,百万 token 的成本从 2022 年的 20 美元下降至 2024 年 10 月的 0.07 美元,约 降低 280 倍,token 调用成本的下降将反推 AI 在垂类应用的中的渗透,并提升商业 闭环节奏。

  AI 商业飞轮闭环节奏提速,资本开支持续性增强。模型性能优化、调用成本降低, 持续推动 AI 应用渗透,国内外云厂、运营商的资本开支持续性预期增强。 1)海外云厂:2025 年前三季度谷歌、亚马逊、META、微软用于购买资产和设备的 现金流合计为 2633.97 亿美元,同比增长 68.56%。其中,单三季度,以上四家 云厂用于购买资产和设备的净现金流合计为 972.09 亿美元,同比增长 64.78%, 环比增长 3.10%。 分公司来看,谷歌 2025 年度资本开支预期年内第二次上调(上季度谷歌将资本 支出预期由 750 亿美元上调至 850 亿美元),并预计 2025 年资本支出将在 910- 930 亿美元之间,该项资金多用于构建支持谷歌云和 AI 的数据中心基础设施, 同时预计 2026 年资本支出将继续增长。亚马逊预计 2025 年全年的资本开支约 为 1250 亿美元,该投入主要与 AWS 相关,并用于支持 AI 和核心服务的需求, 同时预计 2026 年资本支出亦将继续增加。META2025 年度资本开支预期为 700- 720 亿美元,同时预计 2026 年资本支出增速将进一步加快,主要投向 AI 基础设 备(含云服务、折旧)与 AI 人才薪酬。微软 2025 年单三季度全口径资本开支预 期为 349 亿美元,其中近半数资本开支用于 GPU/CPU 资产,以支出云业务与 AI 负载的加速运营。同样地,微软预计 2026 财年全年资本支出将超过 2025 年。

  2)国内云厂:2025 年前三季度腾讯及阿里的资本开支合计为 1543.25 亿人民币, 同比增长 90.71%。其中,单三季度,以上两家云厂的资本开支合计为 444.84 亿 人民币,同比增长 28.62%,环比下降 23.02%。主要系受限于付款和交货的时间 差及供应链等因素。

  3)国内运营商:随着 5G 网络覆盖日臻完善,运营商投资重点由稳基础的联网通信 业务转向高增长的算力网络、数字智能等新兴领域,资本开支中算力相关投资比 例不断提升。中国移动预计 2025 年连接投资占比下降 6.0%,算力投资占比增加 2.0%,能力投资占比增加 2.0%,基础投资占比增加 2.0%。中国电信预计产业数 字化投资占比将提升 3.0%,产业数字化投资中算力相关投资预计增长 22%。中 国联通 2024 年算网数智类资本开支占 23%,同比增长 11%,2025 年计划为人 工智能重点基础设施和重大工程专项作特别预算安排,根据智算和 6G 等需求, 以及国内外发展趋势,及时调整投资规模。

  在“规模定律”下,大模型参数量持续指数级增长,单台服务器已难以承载完整模型 的训练负载,产业界因此同步推进 Scale-Up 与 Scale-Out 两条技术路径:一方面, 算力硬件厂商通过提升单设备的计算密度与高带宽内存容量,强化单卡或单节点处 理能力,以减少通信频次、降低同步开销;另一方面,当模型规模超越单节点极限时, 系统必须依赖 Scale-Out 架构,将计算与参数分布至由数百乃至数千 GPU 组成的 集群中,通过大规模分布式训练维持模型演进的可行性。 在训练阶段,业界普遍采用混合并行策略(包括数据并行、张量并行和流水线并行), 以适配不同模型架构的计算与通信特性;在推理阶段,由于 Prefill(上下文编码)与 Decode(自回归生成)在计算强度、显存占用及带宽需求上的显著差异,PD 分离架 构(Prefill-Decode Separation)逐渐成为主流分布式推理范式,通过异构资源调度 实现吞吐与延迟的最优平衡。 伴随分布式计算的深度演进,卡间、机内、柜间乃至集群间的多层次通信网络已成为 系统性能的关键瓶颈,为最大限度减少GPU空闲等待时间、充分释放昂贵算力资源, 构建高带宽、低延迟、可扩展的互联架构已成为 AI 集群设计的核心议题,通信效率 也因此与算力密度、能效比并列,成为衡量大模型基础设施先进性的三大关键指标之 一。

  1)Scale up:即通过为单一系统叠加资源(如增加处理器速度、内存或存储容量) 来增强性能。为了最大程度增加带宽,降低 GPU 的等待时间,在兼顾工程化能力和 成本的要求下,当前承载 scale up 网络的主要硬件为铜缆。但随着传输速率要求提 升,铜缆的物理性能导致其传输的功耗、损耗将同步上行,并导致链路无法覆盖机架 的全部长度,因此柜内集成光学的渗透被认为是未来确定性趋势。

  2)Scale out:即通过添加更多同构或异构系统构成分布式架构,借助并行计算提升 整体处理能力,依靠增加并行工作的独立节点数量实现扩展。同样为了最大程度减 少通信开销、降低初始投资及后期运营成本,交换机作为承载 scale out 网络的主要 硬件,正向着高速率、低成本的需求趋势进发。

  3)Scale across:即通过在多个异构资源域(如不同机柜、不同数据中心、不同地 理位置、甚至不同云厂商)之间,实现计算、存储、网络资源的协同调度与高效协同, 以支持超大规模 AI 模型训练、推理或高可用服务部署的一种扩展策略。单个集群的 规模受限于区域的土地资源、电力网络建设。为了突破该限制,scale across 网络通 过模型跨区域连接,实现算力硬件资源的跨区域扩张。