你好,关于算力时代的全光底座关键需求,在《算力时代的全光底座白皮书》中有提及,具体信息可以查找原报告了解。
“全国一体化大数据”对传输的一个关键需求是建设数据中心集群之间以 及集群和主要城市之间的高速数据传输网络,优化通信网络结构,扩展通信网 络带宽,减少数据绕转时延;并建立数据中心网络监测体系,推动数据中心与 网络高效供给对接与协同发展。
结合“全国一体化大数据”的规划,全光底座的一个关键需求是优化网络 架构。网络规划与建设打破行政区划,减少数据的绕行,优化时延。任意两点 间的连接方向可参考高速公路导航,就近选直连路由,而不是通过省会城市绕 行。通过架构优化,任意 DC 间,任意用户-DC 间都可大幅优化时延,提升业务品质。
东数西计算将形成东部国家枢纽节点与西部国家枢纽节点算力资源的有效 互补,充分将东西部数据中心需求与供给进行统筹调度,推动全国数据中心整 体算力的一体化协同发展。数据中心的协同发展,需要光网络与算力协同提供 一体化服务。
“东西部”算力调度:需要结合“算力位置、成本、负载”与“光网络时 延、带宽、负载等”灵活选择最佳西部算力满足东部需求。
“云边”算力调度:城市边缘 DC 规模小、算力成本高,数据中心集群DC 规模大、算力成本低;云边需要结合业务的诉求,算力地图与光网络运力 地图,灵活选择最佳算力满足需求,实现体验满足情况下算力成本最优。
结合东数西算规划来看,10 大集群节点共计规划 600 万+机架(标准机 架),西部集群规划机架数达到 200 万架以上,东部集群规划机架数达 400 万 架以上。东部 DC 以服务本地及周边算力需求为主,西部 DC 以服务全国算力 需求为主,西部 DC 预计出省带宽在 70%以上。东数西算将带来骨干网带宽大 幅增长,当完成规划的机架数时,预计骨干带宽将增加 3000T 以上,是现有运 营商骨干带宽的 3 倍左右,骨干网络需要向 400G 演进,减少对光纤、机房等 基础设施的占用。
时延越低,结合算力资源与网络优势,运营商能发展的算力业务就越多。 运营商在城市内提供 1ms 时延圈,基本上所有的超低时延业务就可以牵移 到运营商的地市级 DC 中。 如果运营商的省级 DC 提供 5ms 时延圈,基本上所有的低时延业务可以牵 移到运营商省级 DC 中。 针对时延不敏感的业务,通过低时延网络,都可以迁移到西部集群 DC 中。 同时通过低时延网络实现多级算力协同,在不影响用户体验的前提下,实 现算力成本与碳排放最优。

算力网络时代,需要网络弹性敏捷,如针对 HPC 场景,渲染等场景,网络带宽的需求并不固定,在需要传输文件时,需要大带宽,但在大部分时间, 带宽需求有限。如平时采用 100M/GE 专线就可满足需求,在向算力中心申请 算力时,需要传输的文件经常达到 100T 规模,100T 文件传输如果采用 100M 专线需要 12 天,会大大降低整体效率;如果采用 100G 专线,仅需要不到 20 分钟即可完成文件的传输。因此需要网络弹性,根据需求快速建立连接与调整 带宽,以提升整体效率。
算力网络时代,主要面向的客户是政企类客户,同时业务会多级部署,这 就对网络的高可靠、物理安全提出了更高的要求。

高可靠、物理隔离安全技术是高价值客户典型要求,包括 OTT 在租用专线 进行 DC 间连接时,经常是直接租用 OTN 硬管道,同时 DC 间要有 3 条以上 的不同物理路由,以确保云间连接物理安全、高可靠。