<沐曦股份>‘去年’‘营收16’{亿元}<增1.2>倍:净亏收窄四成,训推‘一体GP’{U板卡销}量3.3万片

作者:最 🤌新成人网址导🖕 航 | 发布时间:2026-03-27 17:00:02 | 阅读:3460

文章目录

3月26日,沐曦股份(688802.SH)发布了登陆科创板后的首份年报。

年报显示,沐曦股份2025年实现营业收入16.44...

年报显示,沐曦股份2025年实现营业收入16.44亿元,同比增长121.26%;归母净利润为-7.89亿元,较上年同期亏损收窄43.97%;经营活动产生的现金流量净额较上年同期改善8.88亿元;全年综合毛利率为56.51%,同比提升3.02个百分点。

同时,公司依然保持高强度研发投入。

2025年研发费用为10.27亿元,较上年同期增长14.04%,占营业收入比例高达62.49%。

收入高速增长,GPU出货大幅放量

三年来沐曦股份的营收出现了高速增长。

年报显示:2023年营收为0.53亿元,2024年...

年报显示:2023年营收为0.53亿元,2024年攀升至7.43亿元,2025年进一步达到16.44亿元,三年间收入规模增长超过30倍。

收入增长的核心驱动力来自GPU产品销量的大幅增长。

从产销数据来看,2025年训推一体GPU板卡(曦云...

从产销数据来看,2025年训推一体GPU板卡(曦云C系列为主)销量达33649片,同比增长147.31%,智算推理GPU板卡销量4946片,同比增长866%。

截至报告期末,公司GPU产品累计销量已超过55000颗。

在营收高速增长的提振下,公司减亏趋势也已清晰。

2025年归母净利润亏损较2024年的14.09亿元大幅收窄,降幅达43.97%。

若扣除股份支付费用影响,全年净亏损为5.28亿元,较上年同期的9.36亿元亦大幅改善。

收入快速爬坡反映出沐曦股份GPU产品在客户端的接受度正在加速提升。

截止报告期末,沐曦股份GPU产品已部署于10余个智...

截止报告期末,沐曦股份GPU产品已部署于10余个智算集群,算力网络覆盖国家人工智能公共算力平台、运营商智算平台和商业化智算中心,区域横跨北京、上海、杭州、长沙、中国香港等地。

围绕"1+6+X"战略,公司以数字算力底座为核心,...

围绕"1+6+X"战略,公司以数字算力底座为核心,已在金融、医疗健康、能源、教科研、交通、大文娱六大行业实现落地应用,并积极布局具身智能、低空经济等前沿方向。

研发投入持续加码,开源生态快速扩容

报告期内,沐曦股份2025年研发投入达10.27亿...

报告期内,沐曦股份2025年研发投入达10.27亿元,占全年收入的62.49%,同比增长14.04%。

沐曦已形成完整的GPU产品矩阵。

曦云C系列面向训推一体与通用计算,曦思N系列覆盖传...

曦云C系列面向训推一体与通用计算,曦思N系列覆盖传统AI推理与生成式AI推理,曦彩G系列面向图形渲染、云游戏、数字孪生等应用方向进行研发。

成立5年来,沐曦已完成3颗主力芯片的一次性流片量产。

2025年7月,首款基于全国产工艺的曦云C600系...

2025年7月,首款基于全国产工艺的曦云C600系列在WAIC大会发布,较C500在算力、精度和HBM技术上均有提升,已于2025年末实现风险量产,预计2026年上半年实现量产销售。

2026年1月,面向科学智能场景的曦索X系列GPU...

2026年1月,面向科学智能场景的曦索X系列GPU正式面世,首款产品X206配备128GB超大容量显存,覆盖AI4S与高性能计算方向。

公司计划2026年进一步推进曦索X206、曦云C700等下一代产品的研发及产业化。

对于国产GPU企业而言,软件生态的成熟度直接决定客...

对于国产GPU企业而言,软件生态的成熟度直接决定客户的迁移成本与产品推广效率,是芯片从“能用”走向“好用”的关键一环。

沐曦自主研发的MXMACA软件栈已实现对CUDA生...

沐曦自主研发的MXMACA软件栈已实现对CUDA生态的高度兼容,可支持超过6000个CUDA应用及超过1,000个模型的原生适配,包括多个大模型的Day 0适配。

自2025年2月开源社区开放以来,截至2026年3...

自2025年2月开源社区开放以来,截至2026年3月13日,MXMACA注册用户超过30万人,API调用次数超过5591万次,文件下载量超过16万次,并已覆盖超过半数的C9高校。

沐曦是国内少数提供核心软件生态开源、版本SDK公开下载渠道及英文开发文档的GPU企业。

沐曦股份2025年度不进行现金分红,不送红股,不以资本公积金转增股本。

3月26日收盘,沐曦股份报收605.81元,微跌0.41%。

总市值2423.85亿。

标签:
上一篇:上一篇文章
下一篇:下一篇文章