2026年最值得关注的7大AI板块

过去一年,关于AI最震撼的不是“模型变聪明了多少”,而是背后算力基建的升级速度远超所有人的想象。
从GPT-4到GPT-5,模型规模呈数量级增长,推理需求更是被英伟达称为“不是百倍、不是千倍,而是百亿倍增长”。
当AI从科技实验室走向千行百业,真正承载其运行的,不是算法,而是底层算力体系——AI芯片、GPU服务器、交换机、液冷、AIDC……每一环都在高速重构。
而中国,正站在这场全球算力竞赛的中心。
H20替代浪潮、国产GPU崛起、智算中心的爆发式建设、800G/1.6T网络升级、液冷的全面普及,都让“算力”从过去的技术名词,变成了影响产业格局的战略资源。
算力越强,应用就越快落地;算力越普及,AI红利就越广泛释放。因此,与其说2025是AI应用元年,不如说是中国算力大爆发的一年。
算力不是成本,而是生产力;算力不是基础设施,而是时代的“电”。谁理解算力,谁就理解了AI的未来。
01
AI芯片
1)算力核心驱动力 & 国产替代最强逻辑
AI芯片是算力体系的“发动机”。
AI模型规模爆发式增长(GPT-3→1750亿参数;GPT-5预计是其百倍),训练算力需求自2012年以来 每3–4个月翻倍,累计增长 超30万倍。
美国政策限制后,Nvidia在华市场份额从 95% → 0,国产替代窗口彻底打开。
2024年国内AI芯片市场规模约 160亿美元,国产份额上升至 42%。
2)关键变化
① AI算力需求指数级增长
H100功耗700W,下一代平台GB300、Rubin集群稳定推升算力需求。
推理端从“生成”转向“链式推理”,黄仁勋判断:推理增长不是100倍,不是1000倍,是100亿倍。
② 国产替代趋势确定性极高
2024年中国出货H20约 60–80万枚,对应约 1120亿元市场空间。国产厂商持续渗透大模型公司、金融、电信、政务等场景。
3)核心公司
寒武纪:Q2营收超15亿元,净利率37%,已实现规模盈利。
海光信息:前三季度营收94.9亿元(+54.6%),DCU/GPU推进加速。
02
PCB
1)AI服务器推升高端板爆发
AI服务器、交换机高速迭代,使得PCB从传统8层、12层,向 18层、30层、甚至100层以上 快速演进,价值量倍增。
AI服务器出货量2020–2024年CAGR 45.2%。
2)关键变化
① AI服务器驱动PCB技术全面升级
- UBB、OAM高层板使用量巨大。
- Rubin平台全面采用 M9级覆铜板,引入正交背板(合计78层)。
- 高速需求推动电磁、介质、散热性能全面提升。
② 交换机高速率迭代加速
- Broadcom Tomahawk 5→51.2T;TH6→102.4T。
- 800G端口2025年将超过400G,2027年进入1.6T时代。
3)核心公司
沪电股份:企业通讯板收入65.32亿元(+70.6%),交换机PCB增长161%。
深南电路:AI加速卡需求暴增,订单高增。
胜宏科技:100层高多层能力+全球首批高阶HDI量产。
03
AIDC(AI数据中心)
1)智能算力主阵地
AIDC是为AI训练/推理设计的智算中心,比传统IDC更强调高密度机柜、液冷、GPU集群与低延迟网络。
中国算力规模2025年将达 300 EFLOPS,智能算力占比将从25%升至 35%+。
2)关键变化
① AI芯片功耗爆炸,走向“高密度机柜”时代
- H100单卡700W,未来兆瓦级机架成为趋势。
- 中国目前12kW以上机柜占比<5%,提升空间巨大。
② 国内智算中心投资高速增长
- 2023年市场规模 879亿元(+90%)。
- 预计2028年将达 2886亿元。
③ “东热西冷”+集群化趋势明显北京、上海、深圳等核心区域上架率、服务费远高于其他地区。
3)核心公司
润泽科技:61栋智算中心、32万机柜储备,自研冷板液冷,单柜可达40kW+。
奥飞数据:固定资产94.4亿元,机柜超57,000个,多中心在建。
光环新网 / 数据港 / 科华数据:头部批发型IDC和智算服务商。
04
AI电源
1)从UPS到800V HVDC的革命
AI使机架功率密度从传统几千瓦提升到百千瓦—兆瓦级。GPU机柜功率密度比传统Web服务器 高100倍。
供电架构从交流→低压直流→800V高压直流(HVDC)加速演进。
2)关键解读
① 800V HVDC成为行业主趋势
- 更高能效:供电链损耗下降30%以上。
- 铜材节省20–40%。
- 适配下一代AI服务器(GB300、Rubin)。
- 英伟达与英飞凌推进800V全链路系统,计划2027量产。
② 全球厂商推进
- Google/Microsoft/Meta 主推±400V,到800V正在试点。
- 阿里“巴拿马电源”直接输出800V(效率>97%)。
- 百度“瀚海”支持240/800V双架构。
③ 固态变压器(SST)为未来方向支持中压直流,显著节省机房空间并提升可靠性。
3)核心公司
科华数据(龙头):已布局800V HVDC与SST,产品覆盖智算中心/新能源/储能。
中恒电气、易事特:在800V直流供电与模块化产品上有布局。
05
交换机
1)AI推动800G → 1.6T跃迁
交换机是AI算力网络核心,AI训练吞吐量对带宽要求极高。
2024年中国数据中心交换机同比 +23.3%,800G设备收入增长 132%。全球交换机市场2024年约 416亿美元。
2)关键解读
① AI集群驱动端口速率从400G → 800G → 1.6T
- Dell’Oro:2027年超过40%端口将为400G/800G。
- 1.6T将在Rubin时代全面进入应用。
② InfiniBand vs Ethernet
- IB延迟低(2µs vs RoCEv2的5µs),万卡级集群性能更优。
- 但以太网更开放、生态更广,预计2027年将超越IB。
③ Nvidia投入以太网(Spectrum-X)
- 较传统以太网性能提升 1.6倍。
- 加入UEC联盟,与AMD/Meta/Microsoft共建统一AI网络生态。
3)核心公司
锐捷网络:AI交换机国产龙头。
盛科通信(ASIC Switch):国内高性能交换芯片重要力量。
新华三、华为:大规模AI网络布局深厚。
06
服务器(GPU Server)
1)AI时代价值量最高单品
GPU服务器价值量远高于传统服务器,是AI算力最核心硬件。
- 通用服务器:约7万元/台
- 8卡H20服务器:约140万元/台
- 8卡H100水冷版:约220万元/台
GPU服务器=AI算力基础设施的“中枢器官”。
2)关键变化
① 异构计算成为主流CPU+GPU + NPU + FPGA 等多架构混合,以提高训练与推理性能。
② 服务器市场高速增长
- 2025年上半年中国加速服务器规模达到新高(IDC)。
- AI厂商自研服务器增加(阿里、腾讯、OpenAI)。
③ 国产GPU替代带来服务器硬件国产化窗口
- 国产GPU/CPU如海光、寒武纪快速进入大模型训练。
3)核心公司
浪潮信息、曙光、联想:国内GPU服务器主力。
海光信息、寒武纪:GPU/AI芯片带动国产整机崛起。
07
液冷
1)从可选项变为“AI算力的必选项”
随着GPU功耗700W→1000W+,风冷彻底失效,液冷成为必然趋势。
2025年起进入液冷大规模建设元年。液冷渗透率预计从当前10%提升至 2027年40%+。
2)关键变化
① 冷板式液冷为主流
- 单机柜可支持40–80kW冷却能力。
- 适配H100/H200/B200等高热密设备。
② 相变、浸没式液冷在下一代AIDC开始落地
- 浸没式能达到100kW+
- 适配超大规模AI集群(海水冷却、低能耗数据中心)
③ 出海需求显著增强东南亚、中东在建大型AI算力中心,液冷国产供应链优势明显。
3)核心公司
英维克(龙头):数据中心液冷增长超预期。
申菱环境:大型智算中心液冷布局迅速。
高澜股份:冷板式液冷核心厂商。
本文内容仅供参考,不构成任何专业建议。使用本文提供的信息时,请自行判断并承担相应风险。



