公司是数据中心液冷基础设施“小巨人”,从高端向中端下沉
公司是数据中心液冷基础设施龙头。曙光数创成立于 2002 年,2020 年被工信部认定 为专精特新“小巨人”。公司作为我国数据中心液冷领域的细分龙头,是一家以数据中心 高效冷却技术为核心的数据中心基础设施产品供应商,在助力实现数据中心节能减耗的同 时,可以降低数据中心运行成本,并提升服务器可靠性。公司主营业务包括:浸没相变液 冷数据中心基础设施产品、冷板液冷数据中心基础设施产品、模块化数据中心产品的研究、 开发、生产及销售,以及围绕上述产品提供系统集成和技术服务。此外,公司的数据中心 基础设施产品还包括数据中心供配电系统、监控系统、服务器的液冷散热部件等其它配套 系统。
公司从数据中心液冷基础设施高端应用领域向中端应用领域下沉。公司的浸没相变液 冷数据中心基础设施产品主要为 C8000 系列产品;冷板液冷数据中心基础设施产品主要为 C7000 系列产品;模块化数据中心产品主要包含:C500 系列产品、C1000 系列产品、C2000 系列产品、C9000 系列产品。公司的浸没相变液冷数据中心基础设施产品主要应用在高密 度和超高密度数据中心等高端应用领域,公司也通过冷板液冷数据中心基础设施产品、模 块化数据中心产品向中端应用领域下沉,持续巩固公司的细分龙头地位。
公司股权结构较为集中,实控人为中科院计算所
公司股权结构较为集中,实控人为中国科学院计算技术研究所。公司股权结构较为集 中,截至 2023 年 9 月 30 日,中科曙光的子公司曙光信息产业(北京)有限公司持有公司 62.07%股份,因此公司实际控制人为中科院计算所。中科院计算所是中国第一个专门从事 计算机科学技术综合性研究的学术机构。公司持有曙光数创电子设备科技发展(青岛)有 限公司股份 100%。2023 年 10 月 27 日,曙光数创(青岛)产业创新基地正式启动,系 当前国内最大的液冷数据中心全链条基地。
公司将持续推进“由尖端到通用”和“由 IT 到电子”的立体化发展战略。公司秉承 中科院计算所及中科曙光一贯将科技创新放在首位的优良传统,作为中科曙光体系内唯一 从事数据中心基础设施产品研发和生产业务的独立主体,以液冷技术应用为核心,持续推 动和实现“由尖端到通用”和“由 IT 到电子”的立体化发展战略。未来公司将从应用角度 出发,进一步优化产品技术和产品体系布局,向产业链上游延伸,通过研发项目投入和生 产基地的建设,进一步提升市场竞争力。
以浸没式液冷业务为核心,毛利率表现优异
公司多项业务齐头并进,拉动营收高速增长。2018 至 2022 年,公司营收从 1.6 亿元 增长至 5.2 亿元,CAGR 达 34%。就主营构成而言,浸没式液冷产品占公司营收比重保持 在 80%左右,是公司核心业务;冷板式液冷产品、模块化数据中心产品营收占比则相对较 低。随着逐步向中端市场的下沉,未来公司冷板式液冷营收有望保持较快增长。2020 年 之后,公司浸没式液冷产品毛利率保持在 40%以上,带动公司毛利率保持在较高水平。

我国数据中心产业保持快速发展,散热设施是刚性需求
数据中心是我国新基建的重要组成部分,我国数据中心建设走向大型化和集约化。数 据中心作为承载各类数字技术应用的物理底座,是数字经济不断发展的重要支撑。尤其是 随着人工智能、大数据等技术和应用日渐成熟,实际业务对数据中心等底层基础设施的性 能要求越来越高,建设性能更强的大型数据中心成为未来方向。作为我国新基建的重要一 环,2020 年以来,我国数据中心产业进入高质量转型期,国家主要政策对数据中心“集 约化”、“绿色化”、“服务算力化”提出了高要求。根据中国信通院的测算,中国数据中心 在用机架数量 2022 年达 670 万架,近三年同比增速均保持在 25%以上;且我国大型和超 大型数据中心占比已经从 2016 年的 40%提升至 2021 年的 81%。
散热对数据中心至关重要,主要可分为风冷和液冷两种方式。随着各种高性能芯片的 发展,导致数据中心热流密度明显升高,而电子器件失效的主要原因就是温度过高。美国 空军航空电子整体研究项目(US Air ForceAvionics Integrity Program)认为,温度、振动、 湿度和粉尘是造成电子设备故障的主要因素。因此,散热设施对于数据中心的正常运行及 使用寿命至关重要,当前数据中心的散热冷却技术主要分为风冷和液冷两大类别。
风冷主要指强制风冷,包括空调制冷、新风制冷等方式,适用于机柜功率密度较低的 数据中心。强制风冷是利用风机将冷空气吹向 IT 设备进行冷却,是当前数据中心最广泛采 用的冷却方式,目前业界正在通过采用合理的气流组织、智能通风、精确送风、智能换热、 蓄冷空调、空调添加剂以及空调压缩机冷媒控制等技术,来降低能耗水平。按照空气来源 不同,强制风冷主要包括空调制冷和新风制冷两种方式。空调制冷是使用空调来冷却数据中心内部空气,维护方便,技术成熟,稳定性高;但是空调制冷能耗较高,PUE 一般在 1.7 以上1。新风制冷是指用数据机房外部空气(新风)作为冷却介质的冷却方式:当数据 中心内部温度高于外部环境时,可以直接将外部冷空气通过风机输送进数据中心,再将升 温后的空气通过通道排至室外,该方式能耗可比空调制冷节能 40%,但对环境要求较高(适 用于全年平均气温低的温带或寒带地区),且对空气质量条件敏感。当前新风制冷发展较 为迅速,例如雅虎位于洛克波特的数据中心、Facebook 位于俄勒冈州的普林维尔数据中 心等均采用新风制冷。
风冷主要适用于机柜功率密度较低的数据中心。总体而言,风冷适配性好,已经比较 成熟。但是风冷无法满足未来中大型数据中心的冷却要求:(1)风冷系统的能耗高,传统 空调系统使用压缩机械冷却的方法,虽然运行稳定,但是能耗高(尤其在中低纬度地区), 导致 PUE 偏高,已经不符合《关于加强绿色数据中心建设指导意见》等相关政策的要求。 (2)风冷系统散热能力不足,尤其是影响了某些运行频率较高的设备的正常运行,导致 算力下降。(3)风冷系统冷源与热源的距离远,因此需要增设更多的送风通道,增加了系 统运行负担。此外,风液融合成为新趋势,“风冷﹢液冷”融合发展成为未来数据中心温 控市场的重要方案之一。
液冷包括间接液冷和直接液冷两大类。液冷技术往往以服务器为最小冷却单元,按照 冷却液是否与发热器件直接接触,可分为间接液冷(包括冷板式、热管式)、直接液冷(包 括浸没式、喷淋式)。当前,冷板式、浸没式是最为主流的数据中心液冷技术。液冷的散 热能力更强,且减少了末端空调、服务器风扇等元器件的使用,能够大幅度降低 PUE 水 平。 冷板式液冷。冷板式液冷是典型的间接液冷方式,将金属冷板与 IT 设备芯片贴合,多 为单相冷却,液体在冷板中流动,芯片将热量传导给冷板金属,液体流过冷板时升温,利 用显热将芯片热量带出,并通过管道与外界冷源进行换热,是芯片级别的冷却方式,使用 最多的冷却介质是水。冷板冷却是当前液冷数据中心采用最广泛的散热冷却方式,往往采 用液冷和风冷相结合的方法,即对芯片采用液冷,对硬盘、接口卡等其他元件采用风冷。 例如,2022 年京东在廊坊数据中心大规模部署冷板式液冷,使 IT 设备散热效率提升 50%,与传统风冷式整机柜相比,在数据中心部署总体能耗降低 40%以上,可将 PUE 降至 1.1 以下,机柜部属密度提升 28.6%,基础设施能耗节省 30%2。由于服务器芯片等发热器件 只用通过冷板的强迫对流换热,不用直接接触液体,所以冷板式液冷不用对整套机房设备 重新进行改造设计,可操作性更强,应用更广泛。

浸没式液冷。浸没式液冷是将发热器件完全浸没在冷却液中,通过直接接触冷却液进 行换热。根据冷却液是否发生相变,浸没式液冷可分为单相浸没式液冷和双相浸没式液冷。 (1)单相浸没式液冷。单相浸没式液冷需要将 IT 设备浸没在装有冷却液的密封槽中, 在设备内无需加入活动部件,只需提前规划好流体流动通道,冷却液经过设备换热不发生 相变,利用升温显热来交换热量,升温后的液体在循环泵的作用下流出冷却介质槽,进入 冷却器降温后再流回冷却介质槽,达到循环换热的目的,可适用最高 100kW/r 的服务器机 柜。在单相浸没式液冷中,电子冷却液保持液相。例如,阿里云采用自主研发的液冷服务 器集群,2020 年在杭州建成全球规模最大的单相浸没液冷数据中心(仁和数据中心),PUE 低至 1.09,且液冷服务器部件故障率下降 50%,是我国首座绿色等级达到 5A 级的液冷数 据中心,真正全面降低了数据中心总体拥有成本3。浸没液冷能将温度维持在发热限值之下, 可有效提升芯片效率。 (2)双相浸没式液冷。双相浸没式液冷的冷却液在密封槽里与 IT 设备接触,在热源 表面形成的蒸汽气泡上升到密封槽上方区域,蒸汽经过换热在冷凝器中重新变为液态,流 回槽内。双相浸没式液冷依赖于冷却液的蒸发潜热,通过沸腾及冷凝过程,指数级地提高 冷却液的传热效率。例如,2019 年中科曙光发布了“硅立方”液体相变冷却计算机,采 用浸没相变液冷技术,与早先推出的同类产品相比,单机性能提升 10 倍,计算密度提升 10-20 倍,系统能效提升 4 倍,总体网络性能提升 2 倍,PUE 低至 1.044。
浸没式液冷主要具有三大优势。(1)冷却液与发热设备直接接触,对流热阻低,传热 系数高,且冷却液热导率和比热容较高,运行温度变化率较小,且低温运行有助于 CPU 实际性能的提升;(2)无需风扇,降低了能耗和噪音,制冷效率高;(3)浸没环境有效避 免了湿度(空气中的水会造成元器件的锈蚀,而冷却液可以保护设备)、灰尘等对设备的 不良影响。所以液冷技术适用于对热流密度、绿色节能需求高的大型数据中心、超级计算、 工业及其他计算领域和科研机构,特别是对于地处严寒、高海拔地区,或者地势较为特殊、 空间有限的数据中心,以及对环境噪音要求较高,距离人群办公、居住场所较近,需要静 音的数据中心具有明显的优势。
浸没式液冷成本较高,且需要定制化改造和设计。浸没式液冷由于需要采用绝缘性能 优良、闪点高不易燃、腐蚀性及生物毒性小的冷却液,成本相对较高。尤其是双相浸没式 液冷还需要冷却液拥有较低的沸点,对冷却介质槽的密封性要求更高,进一步抬高了成本。 同时,浸没式液冷往往需要对 IT 设备进行定制化改造和设计,对机房现有 IT 基础设施改 造幅度较大,技术难度较高。当前单相浸没式液冷已经得到了较多的应用,双相浸没式液 冷也在持续拓展应用场景。
绿色数据中心大势所趋,液冷方案成为重要选项
提升数据中心能效, 降低 PUE 已经成为数据中心发展的必然趋势。数据中心是耗电 大户,占全社会用电量的比重亦上升。根据中国信息通信研究院的研究,数据中心电费占 数据中心 TCO(整体运营支出)的 60%~70%。在“双碳”背景下,随着数据中心走向大 型化和集约化,“绿色”也成为我国数据中心发展的关键主题之一。在保障数据中心性能 的前提下,降低散热能耗是必然选择。我国相关政策也致力于建设绿色数据中心,降低 PUE 值,工信部《新型数据中心发展三年行动计划(2021-2023 年)》提出到 2023 年底,新建 大型及以上数据中心 PUE 降低到 1.3 以下。发改委同意启动建设全国一体化算力网络国家 枢纽节点的系列复函则明确要求国家算力东、西部枢纽节点数据中心 PUE分别控制在 1.25、 1.2 以下。
数据中心降 PUE 值,液冷方案有望成为主流选择。冷却液导热系数是空气的几倍, 单位体积下热容可达空气的 1000 倍以上,液冷散热能提供更高的散热能力,满足数据中 心机柜功率密度增长的需求;同时高比热的冷却工质循环能耗少,且液冷简化了换热流程, 减少了风冷末端在房间输送冷风过程中受湍流影响导致的部分能量衰减的问题。根据英特 尔的测算,采用液冷散热方案的数据中心 PUE 比采用风冷的常规冷冻水系统降低 0.15 以 上,可让有限的能源更多分配给算力,因此采用液冷的数据中心 PUE 比风冷数据中心普 遍降低 0.15 以上,甚至 PUE 值可达 1.15 甚至更低,从而降低运行成本,增加算力产出。 因此我国《推动数据中心和 5G 等新型基础设施绿色高质量发展实施方案》等相关政策在 对 PUE 提出明确要求的同时,也鼓励采用液冷等高效环保制冷技术降低能耗。
国内部分数据中心 PUE 偏高,存量改造需求较大。根据国家发改委 2021 年 11 月发 布的《推动数据中心和 5G 等新型基础设施绿色高质量发展实施方案》,新建大型、超大 型数据中心电能利用效率不高于 1.3,逐步对电能利用效率超过 1.5 的数据中心进行节能 降碳改造;我国各地政府也在持续推进数据中心的节能降耗改造,北京、上海、浙江、贵 州等地均推出了老旧数据中心改造及淘汰的相关政策。根据科智咨询的数据,2022 年我 国数据中心实际 PUE 均值为 1.57,我国数据中心将存在较大的节能改造需求。
数据中心功率提升,驱动液冷成为刚需
全球数据中心未来的功率密度持续上升,实现算力提升需要解决散热瓶颈。第一,从 应用层面来看,计算密集型应用场景的激增,加上云业务广为互联网头部企业采用,导致 承载这些应用负载的服务器设备功耗大幅增加,进而使得数据中心设计功率密度呈现逐年 增大的趋势。第二,从 IT 硬件层面来看,为了满足高算力负载需求,通过单机架叠加多核 处理器提高计算密度,导致了 IT 硬件的处理器功耗显著增加,也使得单机架功率密度越来 越高。例如,从当前占据全球服务器 CPU 主要市场的英特尔®架构处理器看,英特尔®至 强®可扩展处理器 TDP(热设计功耗)从 2019 年的 205W 上升了到达 2022 年的 270W, 在 2023 年则达到了 350W。这在提供强大算力的同时也带来散热困扰,而解决了散热瓶 颈就意味着实现算力提升。

AI 服务器导致单机柜功率大幅上升,较传统服务器散热需求更高。由于 AI 服务器通 常采用 CPU+GPU/FPGA/TPU 等异构架构,使用大量高功率的 CPU、GPU 芯片,导致功 耗大幅提升。例如英伟达 AI服务器(NVIDIA DGXA100 640GB)包含 1颗 CPU(AMD Rome7742)和 8 颗 GPU(NVIDIA A100 80GB Tensor Core GPU),系统功耗最大可达到 6.5KW。 如果以 19 英寸*42U 标准机柜为例,其最多可以放 7 个 A100 服务器,则单机柜最大功率 可达 45.5KW。因此,随着 AIGC 的发展,基于 GPU 的智能算力部署将持续提升,智算中 心单机柜密度一般在 20kW 以上,需要部署液冷系统达到散热要求。
数据中心功耗提升,液冷将成为主流方案。根据开放数据中心委员会 ODCC《冷板式 液冷服务器可靠性白皮书》数据显示,自然风冷的数据中心单柜密度一般只支持 8-10kW, 通常液冷数据中心单机柜可支持 30kW 以上的散热能力,并能较好演进到 100kW 以上。 散热冷却系统所采用冷却技术不同,对应的移热速率差距也不同,一旦选择不合适的冷却 系统,单机柜功耗与冷却系统能力不符合,会导致机柜温度不断升高,进而导致算力下降, 对硬件设备造成不可逆损伤。此外,从散热成本来看,根据施耐德电气的数据,对于低功 率密度的服务器,风冷即可满足要求,但是当密度为 10kW/机架时,浸没式液冷的成本与 风冷持平,密度达到 40kW/柜时,温控投资成本液冷比风冷少 1 美元/W。因此,随着数据 中心单机柜功率的持续提升,以及 AI 算力占比大幅提升,液冷有望成为未来主流方案,未 来成长空间广阔。
业界共同促进,市场空间广阔
三大运营商不断进行实践,助力液冷技术落地。2021 年之前,我国三大电信运营商 已经积极开展数据中心及 5G BBU 液冷的试点项目,并逐渐转入规模化应用。三大运营商 积极探索实践液冷技术,加速推进液冷技术落地。2023 年 6 月 5 日,三大运营商发布了 《电信运营商液冷技术白皮书》,提出三大运营商将于 2023 年开展液冷技术验证;2024 年开展规模测试,新建数据中心项目 10%规模试点应用液冷技术;2025 年开展规模应用, 50%以上数据中心项目应用液冷技术,电信行业力争成为液冷技术的引领者。
互联网巨头早已积极布局液冷技术,有望持续推进互联网企业液冷规模化布局加速落 地。阿里云早在 2016 年就开始尝试浸没式液冷技术,并持续推进大规模部署,2018 年建 成首个互联网液冷数据中心,2020 年投产首个 5A 级绿色液冷数据中心(杭州云计算数据 中心)。百度在 2019 年探索“风液结合”的冷板液冷整机柜,2021 年面向冷板液冷发布 《天蝎 4.0 液冷整机柜开放标准》,2022 年发布《天蝎 5.0 浸没式液冷机柜技术规范》,持 续推进液冷技术应用。京东 2022 年在廊坊数据中心大规模部署冷板式液冷,承载京东集 团核心业务,使 IT 设备散热效率提升 50%,可将 PUE 降至 1.1 以下,机柜部属密度提升 28.6%。字节跳动则从 2021 年以来,在廊坊、山西数据中心进行了较大规模的液冷部署。
我们预计我国数据中心液冷基础设施市场规模 2025 年将达 106 亿元。伴随着全球数 据中心单机柜功率不断提升、国家 PUE 指标趋严、三大运营商白皮书进一步明确 IDC 温 控技术指引,液冷技术的成熟度在不断提升,规模化落地在持续推进。根据中国信通院白 皮书,无论是对于局部散热还是整体散热而言,风冷技术均趋于能力极限,且电力消耗巨 大。根据赛迪顾问 2020 年的评估,液冷方案除了初期投运成本和承重要求高于传统风冷 方案以外,其性能、能效、减噪等方面均优于传统风冷方案,且 5 年平均运营成本也低于 传统风冷方案。2022 年,我国液冷数据中心已基本完成了从“黑科技”到普惠应用的转 变,发展的核心逻辑及部署方式已大致确定。因此,液冷方案正在逐步成为数据中心散热 的主流选择,其市场份额有望保持较高增速。我们预测,我国数据中心液冷基础设施市场 规模 2025 年将达 106 亿元,预测过程如下:(1)基于我国在用标准机架数量,及中国通 服数字基建产业研究院对于 2025 年我国算力规模的预测,我们预测了 2023-2025 年我国 在用标准机架数量,并预测了在用标准机架淘汰率、改造率,从而得出 2023-2025 年每年 新投运及改造数据中心功率;(2)依据赛迪顾问的数据及预测,以及《电信运营商液冷技 术白皮书》的指引,我们测算并预测了风冷、冷板式、浸没式等散热方式的渗透率及单 kW 价值量;(3)最终我们得出我国数据中心散热基础设施市场规模,其中数据中心液冷(冷 板式+浸没式)基础设施市场规模 2025 年预计将达 106 亿元。
公司是液冷技术领军者,市占率行业第一
公司在液冷数据中心基础设施产品设计和制造方面具有深厚积淀。曙光数创专注于数 据中心领域 20 余年,在液冷技术领域不断积累,核心技术囊括了浸没相变液冷技术、冷 板液冷技术和风冷技术,尤其是浸没相变液冷拥有较强的技术壁垒与行业领先地位。公司 的液冷核心技术成功解决了中高、超高、极高密度数据中心的散热难题,可有效降低数据 中心整体耗能。截至 2023 年 6 月 30 日,公司拥有液冷相关已授权专利 125 项,包括国 内专利 121 项,其中发明专利 33 项、实用新型专利 71 项、外观设计专利 17 项;国外专 利 4 项。公司已参与发布标准共 20 项,其中国标 3 项、地标 2 项、行标 6 项、团标 9 项。 制造技术方面,公司在数据中心基础设施产品的关键产品设计、生产、工艺流程、软件控 制等方面均具备核心工艺技术,在整体产品把控上具有核心控制技术。
公司凭借技术优势,屡获行业殊荣。公司液冷服务器制冷系统和浸没式液冷服务器系 统先后获得北京市科学技术委员会、北京市发展和改革委员会等六部门颁发的新技术新产 品证书。公司冷板式液冷服务器散热系统产品多次入选工信部《国家绿色数据中心先进适 用技术产品目录》,冷板、浸没液冷技术入选了工信部《国家工业和信息化领域节能技术 装备推荐目录(2022 年版)》。近年来公司先后被评为中国电子节能技术协会副理事长单 位、数据中心节能技术委员会常务理事单位、中关村软件和信息绿色创新服务联盟副理事 长单位、开放数据中心委员会(ODCC)优秀合作伙伴等。
公司是液冷行业领军者,引领行业技术进展。2023 年 8 月 2 日,公司发布“冷平衡” 战略,满足数据中心对强劲性能、绿色低碳、可控成本的三元平衡需求,并为用户提供全 栈液冷数据中心技术与全生命周期的一站式服务。以曙光相变浸没液冷技术为核心的生态 级一体化大数据中心,PUE 值可降至 1.04,整系统能效比提升 30%以上5。2023 年 8 月 5 日,在“绿色节能液冷数据中心高峰研讨会”上,由国家互联网数据中心产业技术创新战 略联盟、中科曙光、曙光数创联合主编的《绿色节能液冷数据中心白皮书》正式发布,为 建设绿色节能数据中心提供了指引。2023 年 10 月 27 日,公司推出了新一代一体化风液 混冷先进数据中心(C7000 2.0),以“1+1=1”(风冷+液冷=风液混冷)的创新理念,将 风冷系统与液冷系统高效集成,一体化解决数据中心散热需求。

公司研发投入保持增长,持续巩固领先地位。公司研发费用保持持续增长,相较于可 比公司,公司研发费用占营业收入比重长期处于领先地位。根据公司公告,公司拟使用募集资金 17457.2 万元用于液冷数据中心产品升级及产业化研发项目,其中建设投资 6035.9 万元、研发费用 11421.2 万元,于山东省莱西市、北京市在租用场地增设研发部门、建立 实验室。公司研发方向包括超高功率密度服务器浸没式散热产品升级等 7 项内容,这将持 续巩固公司的技术领先优势。
市占率行业第一,募投项目助力公司持续增长
公司是数据中心液冷行业龙头,市占率行业第一。自公司首次推出商业化液冷产品以 来,一直致力于为客户提供高性能、高可靠、绿色节能、全链全生命周期的数据中心整体 解决方案,由曙光数创建设的国内首个标准化液冷数据中心更取得稳定运行超 2500 天的 优异表现,获得行业一致认可。目前在公司承建的数据中心中,液冷数据中心已累计建设 超过 260MW,涉及科研、能源、政府、金融、互联网等多个行业。据赛迪顾问《2023 中 国液冷应用市场研究报告》,2021 年至 2023 年上半年,曙光数创以平均 58.8%的市场份 额,位列中国液冷数据中心基础设施市场部署规模第一,多年稳居行业第一。2020 年公 司被国家工信部授予专精特新“小巨人”称号,并于 2023 年通过复核;2019 年至 2021 年公司连续三年入榜中关村高成长企业 TOP100;2023 年,公司在第 17 届“中国上市公 司价值评选”中荣获“北交所上市公司价值十强”奖项。
公司已经启用全国规模最大的液冷数据中心全链条产业创新基地,夯实未来增长基础。 2023 年 10 月 27 日,公司正式启动了曙光数创(青岛)产业创新基地,系当前全国规模最大 的液冷数据中心全链条产业创新基地。基地拥有七大研发创新实验室和四条先进生产线, 包括 CDM 产品线、液冷散热产品线、钣金喷涂产线、产品总装产线,可提供从服务器到 基础设施、从机房外到机房内、从硬件到软件的全链条、一站式、系统级液冷数据中心解 决方案,为液冷数据中心基础设施建设提供坚实保障。产业创新基地的投运有助于公司产 品优化成本,增强交付能力,同时也持续助力公司产品研发与技术创新。根据山东省莱西 经济开发区招商促进部 2022 年的新闻数据,曙光数创莱西基地 3 年内达产,达产后年产 值不低于 5 亿元。
(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)