返回文章列表
行业动态

2026年最值得关注的7大AI板块

予以
2025-12-09
1天前
2026年最值得关注的7大AI板块

过去一年,关于AI最震撼的不是“模型变聪明了多少”,而是背后算力基建的升级速度远超所有人的想象


从GPT-4到GPT-5,模型规模呈数量级增长,推理需求更是被英伟达称为“不是百倍、不是千倍,而是百亿倍增长”。


当AI从科技实验室走向千行百业,真正承载其运行的,不是算法,而是底层算力体系——AI芯片、GPU服务器、交换机、液冷、AIDC……每一环都在高速重构。


而中国,正站在这场全球算力竞赛的中心。

H20替代浪潮、国产GPU崛起、智算中心的爆发式建设、800G/1.6T网络升级、液冷的全面普及,都让“算力”从过去的技术名词,变成了影响产业格局的战略资源


算力越强,应用就越快落地;算力越普及,AI红利就越广泛释放。因此,与其说2025是AI应用元年,不如说是中国算力大爆发的一年。


算力不是成本,而是生产力;算力不是基础设施,而是时代的“电”。谁理解算力,谁就理解了AI的未来。


01

AI芯片

1)算力核心驱动力 & 国产替代最强逻辑

AI芯片是算力体系的“发动机”。


AI模型规模爆发式增长(GPT-3→1750亿参数;GPT-5预计是其百倍),训练算力需求自2012年以来 每3–4个月翻倍,累计增长 超30万倍

美国政策限制后,Nvidia在华市场份额从 95% → 0,国产替代窗口彻底打开。


2024年国内AI芯片市场规模约 160亿美元,国产份额上升至 42%


2)关键变化

① AI算力需求指数级增长

H100功耗700W,下一代平台GB300、Rubin集群稳定推升算力需求。


推理端从“生成”转向“链式推理”,黄仁勋判断:推理增长不是100倍,不是1000倍,是100亿倍。


② 国产替代趋势确定性极高

2024年中国出货H20约 60–80万枚,对应约 1120亿元市场空间。国产厂商持续渗透大模型公司、金融、电信、政务等场景。


3)核心公司

寒武纪:Q2营收超15亿元,净利率37%,已实现规模盈利。

海光信息:前三季度营收94.9亿元(+54.6%),DCU/GPU推进加速。


02

PCB


1)AI服务器推升高端板爆发

AI服务器、交换机高速迭代,使得PCB从传统8层、12层,向 18层、30层、甚至100层以上 快速演进,价值量倍增。

AI服务器出货量2020–2024年CAGR 45.2%


2)关键变化

① AI服务器驱动PCB技术全面升级

  • UBB、OAM高层板使用量巨大。
  • Rubin平台全面采用 M9级覆铜板,引入正交背板(合计78层)。
  • 高速需求推动电磁、介质、散热性能全面提升。


② 交换机高速率迭代加速

  • Broadcom Tomahawk 5→51.2T;TH6→102.4T。
  • 800G端口2025年将超过400G,2027年进入1.6T时代。


3)核心公司

沪电股份:企业通讯板收入65.32亿元(+70.6%),交换机PCB增长161%。

深南电路:AI加速卡需求暴增,订单高增。

胜宏科技:100层高多层能力+全球首批高阶HDI量产。


03

AIDC(AI数据中心)

1)智能算力主阵地

AIDC是为AI训练/推理设计的智算中心,比传统IDC更强调高密度机柜、液冷、GPU集群与低延迟网络。


中国算力规模2025年将达 300 EFLOPS,智能算力占比将从25%升至 35%+


2)关键变化

① AI芯片功耗爆炸,走向“高密度机柜”时代

  • H100单卡700W,未来兆瓦级机架成为趋势。
  • 中国目前12kW以上机柜占比<5%,提升空间巨大。


② 国内智算中心投资高速增长

  • 2023年市场规模 879亿元(+90%)。
  • 预计2028年将达 2886亿元。


③ “东热西冷”+集群化趋势明显北京、上海、深圳等核心区域上架率、服务费远高于其他地区。


3)核心公司

润泽科技:61栋智算中心、32万机柜储备,自研冷板液冷,单柜可达40kW+。

奥飞数据:固定资产94.4亿元,机柜超57,000个,多中心在建。

光环新网 / 数据港 / 科华数据:头部批发型IDC和智算服务商。


04

AI电源


1)从UPS到800V HVDC的革命

AI使机架功率密度从传统几千瓦提升到百千瓦—兆瓦级。GPU机柜功率密度比传统Web服务器 高100倍

供电架构从交流→低压直流→800V高压直流(HVDC)加速演进。

2)关键解读

① 800V HVDC成为行业主趋势

  • 更高能效:供电链损耗下降30%以上。
  • 铜材节省20–40%。
  • 适配下一代AI服务器(GB300、Rubin)。
  • 英伟达与英飞凌推进800V全链路系统,计划2027量产。


② 全球厂商推进

  • Google/Microsoft/Meta 主推±400V,到800V正在试点。
  • 阿里“巴拿马电源”直接输出800V(效率>97%)。
  • 百度“瀚海”支持240/800V双架构。


③ 固态变压器(SST)为未来方向支持中压直流,显著节省机房空间并提升可靠性。

3)核心公司

科华数据(龙头):已布局800V HVDC与SST,产品覆盖智算中心/新能源/储能。

中恒电气、易事特:在800V直流供电与模块化产品上有布局。


05

交换机


1)AI推动800G → 1.6T跃迁

交换机是AI算力网络核心,AI训练吞吐量对带宽要求极高。

2024年中国数据中心交换机同比 +23.3%,800G设备收入增长 132%。全球交换机市场2024年约 416亿美元

2)关键解读

① AI集群驱动端口速率从400G → 800G → 1.6T

  • Dell’Oro:2027年超过40%端口将为400G/800G。
  • 1.6T将在Rubin时代全面进入应用。


② InfiniBand vs Ethernet

  • IB延迟低(2µs vs RoCEv2的5µs),万卡级集群性能更优。
  • 但以太网更开放、生态更广,预计2027年将超越IB。


③ Nvidia投入以太网(Spectrum-X)

  • 较传统以太网性能提升 1.6倍。
  • 加入UEC联盟,与AMD/Meta/Microsoft共建统一AI网络生态。


3)核心公司

锐捷网络:AI交换机国产龙头。

盛科通信(ASIC Switch):国内高性能交换芯片重要力量。

新华三、华为:大规模AI网络布局深厚。

06

服务器(GPU Server)


1)AI时代价值量最高单品

GPU服务器价值量远高于传统服务器,是AI算力最核心硬件。

  • 通用服务器:约7万元/台
  • 8卡H20服务器:约140万元/台
  • 8卡H100水冷版:约220万元/台


GPU服务器=AI算力基础设施的“中枢器官”。


2)关键变化

① 异构计算成为主流CPU+GPU + NPU + FPGA 等多架构混合,以提高训练与推理性能。


② 服务器市场高速增长

  • 2025年上半年中国加速服务器规模达到新高(IDC)。
  • AI厂商自研服务器增加(阿里、腾讯、OpenAI)。


③ 国产GPU替代带来服务器硬件国产化窗口

  • 国产GPU/CPU如海光、寒武纪快速进入大模型训练。

3)核心公司

浪潮信息、曙光、联想:国内GPU服务器主力。

海光信息、寒武纪:GPU/AI芯片带动国产整机崛起。


07

液冷

1)从可选项变为“AI算力的必选项”

随着GPU功耗700W→1000W+,风冷彻底失效,液冷成为必然趋势。

2025年起进入液冷大规模建设元年。液冷渗透率预计从当前10%提升至 2027年40%+


2)关键变化

① 冷板式液冷为主流

  • 单机柜可支持40–80kW冷却能力。
  • 适配H100/H200/B200等高热密设备。

② 相变、浸没式液冷在下一代AIDC开始落地

  • 浸没式能达到100kW+
  • 适配超大规模AI集群(海水冷却、低能耗数据中心)


③ 出海需求显著增强东南亚、中东在建大型AI算力中心,液冷国产供应链优势明显。


3)核心公司

英维克(龙头):数据中心液冷增长超预期。

申菱环境:大型智算中心液冷布局迅速。

高澜股份:冷板式液冷核心厂商。

本文内容仅供参考,不构成任何专业建议。使用本文提供的信息时,请自行判断并承担相应风险。

分享文章
合作伙伴

本站所有广告均是第三方投放,详情请查询本站用户协议