面向 5G MEC 的高级互联实现线路速率速度
直播娱乐和体育赛事提供商的制胜法宝正在为观众和球迷创造更加身临其境的虚拟体验。5G 在实现这种体验方面将发挥重要作用,但新网络基础设施也成为了必需品。
很多情况下,这种新基础设施将基于多路访问边缘计算 (MEC),这是一种 ETSI 标准,能够让网络、计算、存储、安全和其他资源更靠近边缘。由于 5G 带宽提升了几个数量级,加上利用实时无线电访问网络信息的能力,MEC 准备提供比任何同等水平的云处理更低延迟的服务。
MEC 架构的主要优势在于,它可以消除边缘应用程序对远程云或数据中心的依赖性。在此过程中,它会降低延迟、提升高带宽应用程序的性能并尽可能地降低数据传输成本。据网络平台供应商 AEWIN Technologies 的营销总监 Benjamin Wang 称,这还不是潜在成本节约的全貌。
“MEC 非常靠近 5G 基站。” Wang 谈到,“如果你有足够强大的系统,其实就可以将 5G DU(分布式单位)直接集成到 MEC 堆栈。这样可以降低网络基础设施的要求,并节省大家的资金。”
I/O 密集型:面向边缘网络支持的互联改进
那么,这种“足够强大”的系统是什么样的?它们与传统网络设备有什么样的区别,才能满足 5G MEC 的需求?
鉴于 MEC 设备预计将提供小型数据中心的功能,那么像 AEWIN Technologies SCB-1932 网络设备这样的多核多处理器系统就成了必需品。AEWIN 设备可以在远程电信服务器机架中与其他平台配对,支持第 3 代英特尔® 至强® 可扩展双处理器(原代号 Ice Lake-SP),至多可达 40 个 CPU 内核。
但由于所有数据都在 5G vRAN 工作负载或 MEC 平台上的防护墙、聚合器和路由器等虚拟网络功能之间来回传递,其性能瓶颈通常不是处理性能。通常这是用于在共享虚拟化工作负载和/或执行依赖性进程和应用的处理器之间传输信息的芯片到芯片和机架到机架的互联。
截至 2017 年,英特尔® QuickPath Interconnect(英特尔® QPI)曾用于多处理器系统在多个插槽之间传输数据。但现在 100 千兆每秒的以太网 (GbE) 以及更快速的模块都能很快超过 QPI 的可用带宽。结果是“I/O 密集型”系统的入口数据在到达处理器之前受到接口限制的挤压,这就增加了延迟。
为了应对,英特尔® 处理器微体系架构配备了升级版插槽到插槽接口,即英特尔® Ultra-Path Interconnect(英特尔® UPI)。低延迟、高速缓存的 UPI 的速度几乎是 QPI 的两倍,至高可达 11.2 GTps,或全双工带宽 41.6 GBps。
但英特尔® UPI 仅解决了芯片到芯片的数据传输问题。它并没有解决机架到机架的通信。这就是 PCI Express (PCIe) 4.0 的作用,每通道的吞吐量大约为 16 GTps。在对技术进行测试之后,英特尔从 2020 年起便将 PCIe 4.0 融入到其芯片之中,其中包括第 3 代至强® 可扩展处理器。
因此,像 SCB-1932 这样的系统中的数据可以通过 PCIe Gen 4(图 1)传输到八个前端访问扩展托架之一,用于插入式 NVMe 存储、应用特定的加速器或网络扩展模块。平台的八条 PCIe 4.0 x8 通道以 100 Gbps 的速率为这些模块提供数据。
这些现代接口让类似 SCB-1932 这样的系统能够与 MEC 部署需求保持同步,并在安全和视频处理等要求苛刻的应用程序中实现接近线路速率的性能。
自下而上保持数据流动
5G 性能改进不仅适用于您的普通消费者:体育场、医疗中心以及制造工厂等等私营企业正在接受这类低延迟来支持新的应用程序和服务。使用案例包罗万象,如高速视频流、增强虚拟现实和实时生物识别身份验证等。这一切会让生活变得更高效且/或更有乐趣,但都需要更高水平的边缘网络性能。
随着 MEC 装置的临近,只要像 SCB-1932 这样的设备能够保持低延迟的数据流动,我们就可以期待这些以及其他新应用类别的出现。这一切都始于最基础的连接技术,即处理器接口,并不断向前发展。