于英涛:算力热?潮中的新{华三},踏实做好AI底座
在风口上,但不抢风口;少造概念,精耕务实,做AI发展的筑基者
文| 吴俊宇
2026年,整个算力产业链上下游都处于供不应求的状态。芯片、存储、内存、高速交换机、云资源几乎都是如此。市场对算力的饥渴,到了近四年间的高点。
原因是市场当下的重点已转向“用好AI”,基础模型加速迭代,智能体快速普及,Token消耗指数级增长,这直接驱动算力基础设施建设大干快上,对AI算力产业链相关硬件的需求随之激增。
据我们的不完全统计,2025年12月1日-2026年4月24日,全球11家主流模型公司,144天内至少发布或迭代了53款模型,每2.7天就会有一款模型发布或迭代。
国际市场调研机构IDC 2026年预测,全球活跃Agent(智能体)数量将从2025年的2860万,增长至2030年的22.16亿。五年后,活跃Agent数量将是目前的近80倍。
国家数据局3月24日显示,截至今年3月,中国日均Token(词元)调用量已超过140万亿,相比2024年初的1000亿增长了1400倍。
新华三是中国少数具备全栈AI基础设施能力的厂商之一,也是这一轮AI基础设施建设的重要参与者。它直接受益于这一轮算力风口。
新华三2025年营收759.81亿元,同比增长37.96%;净利润达到31.51亿元,同比增长12.30%。进入2026年,高增长势头延续:一季度营收221.89亿元,同比增长45.08%;净利润9.49亿元,同比增长28.16%。
高增长背后,亢奋和焦虑也暗涌如潮。5月8日,NAVIGATE 2026领航者峰会演讲中,新华三集团总裁兼首席执行官于英涛提到,他和产业链上下游一轮又一轮深聊后,感受到亢奋和焦虑的情绪同时弥漫。
一方面,新概念、新技术层出不穷。全球AI基础设施已投入超万亿美元。大模型从实验室走向百行百业。每一家企业都在喊“All in AI”。美国纳斯达克和中国的AI概念股,连创历史上从未触达的新高。
另一方面,算力投入巨大,但ROI(投资回报率)依然模糊。部分数据中心GPU(图形处理器)利用率不足六成。芯片断供的阴影挥之不去,内存价格翻了数倍还难以正常供货。企业家担心公司被AI颠覆,职场人担心岗位被AI替代,政府官员担心AI带来治理挑战。
面对亢奋和焦虑并存的市场情绪,在一场小规模沟通中,于英涛分享了新华三的战略路径思考:
新华三是中国少数几家具备全栈AI基础设施的厂商之一,也是少数能够帮客户真正落地AI的企业之一。新华三在风口上,但不抢风口。新华三的基因是AI基础设施,我们希望聚焦、聚焦,再聚焦,专注自身基因做擅长的事。计算、存储、网络、云、安全、运维这些基本业务,要做好、做深、做透,做到最前沿。
于英涛认为,把产品做到极致,把解决方案做到最优,这是新华三应该做的事情。不造概念,精耕务实,做AI发展的筑基者。
把Token成本打下来
“Token经济”是英伟达创始人黄仁勋今年3月在GTC 2026上提出的概念。
Token正在成为计量算力的最小单位,不仅成了很多公司AI转型的“北极星指标”,也成一些算力公司的核心销售指标。
过去,企业采购AI基础设施时,更关注GPU数量与模型参数等指标。但在今天,企业越来越关心,同样的预算到底能生成多少有效Token。
于英涛谈到一个细节,在和很多政企客户交流时,他们更关注AI到底能否解决业务问题,而对GPU、交换机等硬件本身并不敏感。
但问题在于,今天的Token成本依然高昂。
过去三年,单位Token成本已经降低了90%以上。不过,随着大模型与智能体快速普及,企业整体Token消耗量正在以百倍速度增长。每一个Token背后,又都对应着芯片、网络、存储、调度与电力资源的消耗。因此,企业的算力综合成本也在持续攀升。
因此,AI基础设施的竞争,现在比拼的不只是芯片性能、模型参数,更多是系统效率。
在于英涛看来,AI的瓶颈在系统,而不在单点。计算、存储、网络、云、安全、运维这六个重点环节,最终都会影响单位Token成本。
这也正是新华三今天在AI产业中的位置:它不做模型、不直接卖Token,但它在不断深度优化AI基础设施,直接影响Token生成的成本与效率。
降低单位Token成本,已经是新华三当前AI基础设施能力建设的重要方向。算力与调度,是其中两个关键环节。
芯片性能是决定Token成本的核心因素。中国市场在先进GPU长期紧缺、单卡性能相对不足的背景下,正在采取超节点这种解决方案。
超节点,指的是把成百上千枚AI芯片集成在一个算力机柜中,常见规格包括32卡、64卡、128卡、256卡、512卡乃至1024卡。它的核心并非简单堆叠芯片数量,而是用更大集群规模、更快的带宽网络、更高的调度系统,把芯片组织成一个高效运行的整体。这可以减少因通信、散热等造成的损耗,进而提升整体有效算力。
新华三推出的UniPoD S80000系列超节点解决方案,支持万亿参数大模型的训练与推理,据新华三披露,该平台可将大模型训练性能提升70%,推理性能提升3倍;同时采取液冷散热方案,降低大规模集群运行过程中的能源消耗。
在当下国内算力市场开始把超节点的纸面规模和参数过度营销的背景下,于英涛强调,新华三希望为客户提供真正可交付、可运行的超节点,而不是造概念。目前,新华三的超节点解决方案已经成功交付给多家互联网公司及政企机构。
除了芯片性能本身,云的调度能力也是直接影响单位Token成本的关键因素。
新华三也推出了相应的产品方案。新华三披露的信息显示,它推出的新一代AI智能云支持100多种AI芯片统一纳管,提供100多种MaaS(模型服务)能力。在理想环境下的模型浮点运算利用率(Model FLOPs Utilization,MFU)上限可达到82%。
一位服务多家政企机构的算力基础设施技术人士对我们表示,买不到芯片会滞后。买到却浪费,会一直落后。过去大家对芯片、模型关注度更多。对云这种系统工程关注少。
他进一步解释,今天的调度、适配与系统协同能力的重要性正在快速提升。做好这些工作,有可能将同样的芯片、同样的模型发挥出数倍甚至数十倍的Token吞吐性能。
算力消纳才是真本事
2023年-2025年,中国AI产业的重点是建算力基础设施。
当时,各地规划了数亿元甚至数十亿元建设算力中心,但部分地方算力闲置率甚至很高。
信通院两年前曾做过一次统计,截至2024年5月,全国建设规划中的智算中心共有185座,总算力约272 EFLOPS(每秒百亿亿次浮点运算次数),已建成并投入运营的算力约104 EFLOPS。云服务形式对外提供算力的比例为23%。这意味着,一部分芯片仍以封闭分散的方式运行,利用率尚未被充分挖掘。
2026年,整个市场正在进入用算力的阶段。在算力资源短缺且价格高涨的情况下,重资产投算力已经不是所有企业都能玩的游戏。一些地方过去三年建设了大量亟待消纳的算力,一些地方缺少算力资源却希望使用算力。那么,如何解决市场供需匹配的问题?
于英涛认为,2026年已经不完全是投入重资产建算力的时代,而是到了也需要拼应用的时代。如何用好算力才是关键。他介绍,新华三独创了“图灵小镇”、“芯模社区”这两种创新模式,并且已经得到了相关部门和很多地区的支持。
“图灵小镇”其实是以AI为核心的产业集聚区,里面会有一批AI产业链企业。这种算力建设及运营模式,今天更多是在解决算力消纳或使用的问题。
在某些算力资源不够丰富的区域,地方甚至不需要花费数亿元建设算力中心,只需要千万级别的投资,搭建算力调度平台,就可以从其他算力资源丰富的区域调度算力。于英涛认为,这样不仅性价比更高,而且可以真正用好算力,做到算力资源跨区域合理配置。
“图灵小镇”已经在包括杭州、郑州、咸阳、贵阳、西宁等全国十多个省市落地实践,有数百家核心企业入驻。
事实上,跨区域调度算力,正在成为解决算力区域分配不均的重要做法。我们了解到,相关政策研究部门今年1月在一场闭门讨论中提到,东部需求大但电力贵,西部资源多但本地需求少,且不同行业、不同时间的算力潮汐现象明显。因此,跨区域的算力调度,是充分利用现有算力,减少闲置资源,实现合理配置的重要方法。
于英涛透露,新华三正在准备升级图灵小镇的定位。在他看来,“图灵小镇”并不只是传统意义上的算力园区。它更像是一个围绕Token生产、调度、使用的“Token工厂”。
“图灵小镇”解决的是算力运营与调度问题,“芯模社区”解决的是国产异构算力和国产模型的适配问题。这是新华三建设的一个AI产业社区。
目前中国市场有超过10家国产AI芯片公司(包括华为昇腾、阿里平头哥、百度昆仑芯、海光、寒武纪等),他们正在从能用走向好用。超过10家被广泛使用的主流模型厂商(DeepSeek、阿里千问、豆包、月之暗面、智谱、MiniMax、小米MiMo等)。尤其是国产模型,今年1月之后,国产模型轮番登上全球模型聚合平台OpenRouter整体调用前三的位置。
为争取客户使用,国产AI芯片、国产模型厂商双向都在追求Day0适配。但这种适配并不容易,工程师把基于英伟达CUDA软件生态的代码,重新写在国产芯片的软件栈上,再把计算精度对齐,最终让国产芯片充分发挥效能。
如何让芯片与模型之间深度协同?新华三的“芯模社区”就是提供解决这个问题的场景。因为国产AI芯片和模型并不是单纯靠实验室适配形成的,它需要在真实客户需求与实际业务场景中不断锤炼,完成匹配、调优与协同,进而找到更优的场景组合方式。
新华三披露的数据显示,“芯模社区”已涵盖10多种主流芯片型号,已配套形成由90多种大模型、60多种镜像构成的高价值算力资源库,形成了5000套行业组合方案。
于英涛提到,目前各类国产模型在不同国产AI芯片的不同推理场景各具特点。新华三希望通过“芯模社区”的测试与适配结果,为不同行业客户提供更合适的算力与模型组合建议,让国产AI生态从能跑逐步走向好用。
下好“笨”工夫
在今天的AI热潮中,每天都有新的概念,AI Fomo(恐慌)情绪正在席卷市场。无论是中国市场还是美国市场,芯片公司、模型公司的股价都在连连攀升。
AI既在改变产业,但也不乏泡沫。资本市场的变化令人炫目。新华三要如何在这种剧烈变革中务实选择?于英涛认为,缺了冷静的激情,叫冲动;缺了激情的冷静,叫平庸。
“算力市场变成大风口之后,新华三的管理层仍然保持着冷静和理性,我们优先考虑的是供应链稳定和客户交付。”于英涛进一步解释,新华三是一个技术和产品驱动的公司。要在充分保持供应链稳定的前提下,使用更好的芯片、更好的原材料、更好的软件为客户交付产品和解决方案。
2023年-2024年,中国市场竞争的重点是,买到足够的芯片,训练出更强的模型。但在2025年-2026年,竞争重点变成了——让Agent应用真正跑起来,把国产异构算力(不同公司且不同技术标准的AI芯片通常被称为异构算力)调度起来,把Token成本降下去。
随着AI基础设施进入供不应求阶段,新华三正同时面对产业链上下游的双重压力。
因为随着中美科技巨头乃至全球算力资本开支高速增长,抢购算力已经成了2026年的现状。国际市场调研机构Gartner数据显示,2025年全球数据中心系统总支出高达5056亿美元,同比增长51.6%,这是近五年来的最高水平。预计2026年全球数据中心系统总支出将高达7880亿美元,同比增长55.8%,增速仍将继续提升。
在抢购算力的背景下,GPU、CPU、存储、内存、高速交换机,甚至是光模块、铜模块等核心部件都持续紧缺,部分产品甚至出现数倍涨幅。与此同时,大模型、Agent快速普及,政企客户对算力基础设施的需求在集中爆发。供给端和需求端正在出现割裂的局面。
这对企业的供应链管理能力有着很高的要求。一位存储和内存供应链人士今年2月曾对我们表示,越是这个时候,越要保持冷静。太激进,会导致库存和现金流风险。太保守,又会导致无法为客户稳定交付。
在这种背景下,能否持续稳定获取核心器件,已经直接决定企业的交付能力与盈利能力。那么,新华三要如何在这种市场剧烈波动的环境中,持续做好AI基础设施交付?
新华三的做法更偏向长期主义。一方面,新华三长期与全球核心产业链伙伴保持深度合作,通过长期协同机制提升关键资源的供应稳定性。另一方面,在AI需求快速增长、产业链持续紧张的背景下,新华三也和客户高频沟通协调,尽最大努力保障客户侧AI基础设施的稳定落地与持续运行。
这一系列工作考验的不只是产品能力,是整个AI基础设施体系的系统运营能力。
做好这些工作,看起来并不是那么抓人眼球。它不像模型公司那样,每隔一两个月就能刷新基准测试榜单;也不像芯片公司那样,能够快速获得市场关注与资本追捧。
它真正关注的是这些问题——如何稳定获取芯片、内存与高速网络资源?如何把不同芯片、模型与软件栈真正调度起来?如何在供应链剧烈波动中维持交付?如何让客户真正把AI系统稳定运行起来?
这个过程中,新华三扮演的角色,不是追逐风口,而是成为AI产业背后的算力筑基者——它不仅在为中国算力市场稳定供应链,也在为AI应用落地提供基础设施。