【东枫电子】AI-RAN:人工智能 - 无线接入网络
太原市东枫电子科技有限公司,翻译
文章目录
- 1.概述
- 1.1 什么是AI-RAN?
- 1.2 为什么是AI-RAN?
- 1.3 AI-RAN有哪些好处?
- 1.4 为什么 AI-RAN 会给通信服务提供商 (CoSP) 带来变革?
- 1.5 AIRAN 的构建模块是什么?
- 2. 参考架构
- 2.1 是否有一个明确的参考架构用于部署 AI-RAN?
- 2.2 什么是 NVIDIA 的 AI-RAN 参考架构 (RA)?它如何保障基础设施投资的未来发展?
- 3. 交换机和网卡
- 3.1 为什么 AI-RAN 使用特定类型的交换机和网卡?
- 3.2 什么是软件定义的前传接口?
- 3.3 AI-for-RAN 的关键网络考虑因素是什么?
- 3.4 AI-and-RAN 的关键网络考虑因素是什么?
- 3.5 AI-on-RAN 的关键网络考虑因素是什么?
- 3.6 如何在单个网卡 (NIC) 上组合前传、中传、回传和 AI 流量?
- 4. C-RAN 和 D-RAN
- 4.1 AI-RAN 可以同时部署在 C-RAN 和 D-RAN 环境中吗?
- 4.2 可以使用单块网卡部署 D-RAN 吗?
1.概述
1.1 什么是AI-RAN?
AI-RAN(人工智能 - 无线接入网络)是一项将人工智能完全集成到无线接入网络硬件和软件中的技术,旨在实现全新的人工智能服务和盈利机会,并在网络利用率、频谱效率和性能方面带来革命性提升。
AI-RAN 的底层基础设施基于完全同构的通用加速计算平台构建,无需任何 RAN 专用硬件组件,因此可以同时运行蜂窝和人工智能工作负载,并为每个工作负载提供确定性的性能。它体现了云原生原则,例如按需扩展、多租户以及两种工作负载的容器化。
AI-RAN 的软件完全基于软件定义和人工智能原生原则构建,以实现人工智能和 RAN 工作负载的容器化和加速,确保充分利用底层加速计算基础设施的优势。
凭借这种加速且统一的软硬件基础,AI-RAN 能够在共享、分布式和加速的云基础设施上部署 5G/6G RAN 和人工智能工作负载。它将 RAN 基础设施从单一用途转变为多用途云基础设施。
正如 AI-RAN 联盟(一个由电信公司和学术界组成的社区,其使命是推动 AI-RAN 的创新和应用)所概述的,将 AI 集成到 RAN 中有三个具体领域。
- AI 和 RAN(也称为 AI with RAN):使用通用的共享基础设施来运行 AI 和工作负载,目标是最大限度地提高利用率,降低总拥有成本 (TCO),并创造新的 AI 驱动的收入机会。
- AI for RAN:通过将 AI/ML 模型、算法和神经网络嵌入到无线信号处理层,提升 RAN 功能,从而提高频谱效率、无线覆盖范围、容量和性能。
- AI on RAN:在网络边缘启用 RAN 上的 AI 服务,以提高运营效率并为移动用户提供新的服务。这将使 RAN 从成本中心转变为收入来源。
AI-RAN 通过利用完全软件定义的通用平台架构,实现 Open-RAN 的目标,该架构支持开放接口,为 RAN 提供灵活性、互操作性和成本效益。
1.2 为什么是AI-RAN?
AI-RAN 为电信行业将 AI 技术的快速发展融入蜂窝电信发展路线图奠定了技术基础。
AI 和生成式 AI 应用的激增对蜂窝网络提出了更高的要求,推动了对边缘 AI 推理的需求,并需要新的方法来处理这些工作负载。
与此同时,基于 AI 的无线电信号处理技术的进步与传统技术相比,正在展现出令人瞩目的成果,并有望在无线电效率和性能方面实现变革性提升。
随着行业开启 6G 之旅,与基于专用硬件(无论是定制专用集成电路 (ASIC) 还是带有嵌入式加速器的片上系统 (SoC))的传统 RAN 系统相比,基于通用商用现货 (COTS) 服务器和软件定义加速构建的 AI-RAN 能够提供更强大的功能,高效处理日益增长的 AI 和非 AI 流量。
AI-RAN 通过托管 AI 工作负载创造了新的收入机会,并将 AI 集成到 RAN 的运营中,以优化网络性能、自动化管理任务并增强整体用户体验。
1.3 AI-RAN有哪些好处?
AI-RAN 能够在共享、分布式和加速的云基础设施上部署 5G RAN 和 AI 工作负载,从而解决通信服务提供商 (CoSP) 长期以来面临的两大关键挑战:
- 平均基础设施利用率低,导致投资回报率 (ROI) 较低。
- 纯 RAN 服务的盈利空间有限,因为它被视为一项基础的可访问服务,但流量正在增长,而获取新的频谱或基站来满足不断增长的流量需求成本高昂。
AI-RAN 的核心使命是通过为 CoSP 提供以下关键优势,最大化服务提供商的投资回报率:
- 最大限度地利用其基础设施,从而降低总体拥有成本 (TCO)。
- 通过托管 AI 服务提供新的盈利机会,从而增加收入。
- 使用嵌入到无线电信号处理中的 AI 技术,提高频谱效率、能源效率和性能。
- 确保其基础设施投资面向未来。
1.4 为什么 AI-RAN 会给通信服务提供商 (CoSP) 带来变革?
AI-RAN 对通信服务提供商 (CoSP) 具有变革性意义,因为它:
- 为 RAN 提供最高的小区密度、吞吐量和频谱效率,同时
确保 RAN 工作负载达到运营商级的确定性性能。 - 使通信服务提供商能够动态地将未使用的 RAN 容量分配给 AI 工作负载,
从而通过新的盈利机会提高整体投资回报率。 - 提高满载系统的能效。
- 通过在共享加速硬件平台上采用持续集成/持续交付 (CI/CD) 方法,通过新软件版本部署持续改进(RAN 和 AI),为通信服务提供商的基础设施投资提供面向未来的保障,包括未来软件升级到 6G。
1.5 AIRAN 的构建模块是什么?
AI-RAN 的关键构建模块包括:
- 多用途云原生基础设施 - 支持任何 RAN、任何云原生网络功能 (CNF)、任何基于业务支持系统/运营支持系统 (BSS/OSS) 的内部 AI 工作负载或任何外部 AI 工作负载。
- 使用 COTS 服务器的软件定义架构 - 无固定功能或专用硬件。
- 通用加速 - 可加速多种工作负载。
- 多租户和多工作负载设计;AI 和 RAN 均为一等公民,各自根据需求提供确定性性能。
- 可扩展且可互换的基础设施;相同的服务器可通过软件重新配置优化用于任何工作负载,并且相同的同质基础设施可用于任何部署场景,包括集中式 RAN (C-RAN)、分布式 RAN (D-RAN) 和大规模多输入多输出 (mMIMO) 变体,无需为每个用例定制基础设施。
2. 参考架构
2.1 是否有一个明确的参考架构用于部署 AI-RAN?
AI-RAN 是一个完全软件定义的通用解决方案,其中 AI 和 RAN 工作负载均被视为“一等公民”。任何为该系统设计的硬件平台都应能够独立加速和支持每个工作负载,同时支持 AI-and-RAN、AI-for-RAN 和 AI-on-RAN 功能。
NVIDIA 与合作伙伴携手定义、构建和验证了 NVIDIA 云合作伙伴 (NCP) 电信参考架构 (RA)。该 RA 的目标是创建一个蓝图,以推动通信服务提供商 (COSP) 客户快速部署 AI-RAN。
该 RA 的关键要素包括:
- 标准机架式电信服务器。
- 基于 NVIDIA MGX GH200 的原始设备制造商 (OEM) 服务器平台。
- 符合 Spectrum X 标准的前传聚合交换机和网络接口控制器 (NIC) - Spectrum 交换机和 Bluefield 3 (BF3) 数据处理单元 (DPU) - 支持 RAN 前传的时序要求和优化的 AI 以太网功能。
下文将详细解释此参考架构 (RA)(图 2)的设计。NVIDIA 已构建并验证了此 RA。此外,我们的一些合作伙伴已成功利用 NCP Telco RA 进行 AI-RAN 现场试验。
NVIDIA AI Enterprise 无服务器应用程序编程接口 (API) 是实现通过 AIRAN 基础设施按需处理外部 AI 工作负载的关键组件,该接口可以从其他数据中心获取工作负载。
2.2 什么是 NVIDIA 的 AI-RAN 参考架构 (RA)?它如何保障基础设施投资的未来发展?
基于 NVIDIA MGX GH200 服务器、NVIDIA BF3、CX7/CX8 网卡和 Spectrum-X 交换结构构建的 AI-RAN 完全可编程且可扩展。它能够适应 AI 应用不断发展的格局,并通过在同一硬件上进行软件升级来应对未来 6G 网络的演进。
AI-RAN 参考架构构建于 AI 和 RAN 融合的高性能、可扩展性和模块化基本原则之上。
为了指导 AI-RAN 部署,图 3 [1] 展示了一个解决方案蓝图,该蓝图包含一个标准数据中心机架,其中的 AI-RAN 服务器包含 CPU、GPU、数据处理单元 (DPU)、固态硬盘 (SSD) 和基于以太网交换机的网络结构。
该示意图为通信服务提供商 (CoSP) 部署下一代软件定义和加速的 AI-RAN 数据中心提供了参考架构,从而同时满足 AI 和 RAN 工作负载的计算需求。
云原生加速计算是该参考架构的核心,能够根据运营商分布式数据中心(例如中心局和移动交换局)随时间推移产生的 RAN 流量和 AI 工作负载,快速部署具有不同扩展程度和计算需求的 AI-RAN 系统。
该端到端 AI-RAN 部署蓝图包含关键组件,例如无线单元 (RU)、前传 (FH) 网络、分布式单元 (DU) 以及可选的集中式单元 (CU) 和核心网 (CN),所有这些组件均在 AI-RAN 服务器上运行。
请注意,为简单起见,图 3 描绘了将 RU 连接到单个 AI-RAN 服务器(即多对一映射)的前传网络拓扑,而在实际部署中,RU 和 AI-RAN 服务器之间的连接将是多对多的。
为了在同一基础设施中实现 AI 和 RAN 流量的无缝传输,网络结构被分为两部分:计算结构(RU 和 AI-RAN 服务器之间)和融合结构(AI-RAN 服务器和互联网之间)。
计算结构通过前传在 AI-RAN 服务器之间分配 RAN 工作负载,即东西向 (E-W) 流量。融合结构通过中传/回传(南北向 (NS) 流量)承载往返于 AI-RAN 服务器的 RAN 和 AI 工作负载,并为非来自无线网络的 AI 流量提供到有线网络的连接。
图 3 展示了这两种结构,它们都采用最小的两主干四叶树形拓扑结构,
这种结构在实际部署中可以进一步扩展。在计算结构中,来自 RU 的前传连接在基站/传输聚合路由器中聚合,并通过“主干-叶”网络结构连接到 AI-RAN 服务器。这种双交换层架构通常用于数据中心网络拓扑,以实现可扩展性、冗余性、性能和简化的网络管理。
在典型的主干-叶网状结构中,叶交换机直接连接到网络边缘端点(例如,服务器和其他边缘设备),并在发送到主干层之前聚合来自这些端点的流量;而主干交换机则构成网络结构的核心,在叶交换机之间路由流量。计算结构包含两种类型的叶交换机,即前传叶对交换机,用作 RU 的接入点(叶交换机 1-2 和服务器叶对交换机 3-4),将主干层连接到边缘 AI-RAN 服务器。
每个前传叶交换机通过精确时间协议大师 (PTP/GM) 分发时间,PTP/GM 是网络计算结构内时间同步的主要来源。利用 PTP 协议,前传叶交换机根据 O-RAN 前传规范,通过低层拆分配置 3 (LLS-C3) 同步拓扑将精确时间信息分发给连接到前传网络的 RU 以及 AIRAN 服务器中的 DU。前传/服务器叶交换机通过主干层互连创建的网状拓扑在计算结构中创建了高度可扩展且冗余的网络架构。
每个 AI-RAN 服务器在前端(即朝向前传网络)连接到计算结构,而其后端连接到通过主干交换机网状互连的融合网络叶交换机对(即叶交换机 5-8),这些叶交换机对(即主干交换机 3-4)。融合交换矩阵将 AI-RAN 服务器连接到中传、回传或互联网,具体取决于 AI-RAN 服务器是仅承载用户平面 (DU)、DU 和用户单元 (CU) 组合,还是 DU、CU 和核心网络 (CN) 组合。例如,仅承载用户平面 (DU) 的 AI-RAN 服务器可以通过中传连接到用户平面 (CU),而共同承载用户平面 (DU) 和用户单元 (CU) 的 AI-RAN 服务器可以通过回传连接到用户平面功能本地分支 (UPF LBO) 或核心网络 (CN) 中的 UPF。另一方面,在 AI-RAN 服务器上运行的集中式 DU+CU+CN 将通过融合交换矩阵连接到互联网(通过 N6 接口),如图 3 所示。
接下来,放大图 3 中的 AI-RAN 服务器,探索基于这些服务器构建的软件堆栈,以在同一平台上支持 AI 和 RAN 多租户。
图 2 展示了软件堆栈的各个组件。它被设计为云原生,并配备商用级云操作系统(例如 Kubernetes),提供动态资源编排和基础设施管理。云操作系统托管计算平台和应用程序编程接口 (API) 模型,例如计算统一设备架构 (CUDA),以及网络平台和 API 模型,例如数据中心基础设施片上架构 (DOCA),以便在加速计算的帮助下高效运行各种 RAN 和 AI 应用。
对于 RAN 堆栈,DU、CU 和 CN 由支持众多单元和 RAN 应用的服务管理和编排 (SMO) 实体进行编排;而对于 AI 堆栈,各种软件组件在 API 集群代理下协同工作,用于监控和管理 Kubernetes 集群中的 AI 服务器工作负载。对于 AI 堆栈,基本构建模块包括 AI 应用软件框架和 AI 推理微服务(例如 NVIDIA 推理微服务 (NIM) 和 NeMO 框架),以及用于将这些组件与在该平台上原生运行或通过无服务器 API 运行的各种 AI 应用程序(例如文本、语音、视频、图像)连接的行业标准 API。
一个包罗万象的端到端 (E2E) 编排器可同时与 RAN SMO 和 API 集群代理协同工作,以跟踪资源利用率并在同一共享硬件上编排 RAN 工作负载和 AI 推理请求,从而实现多租户,同时满足 RAN 所需的服务质量和体验质量要求。借助 AI-RAN 参考架构和相关软件堆栈,网络运营商可以获得完整的 AI-RAN 部署蓝图,以便在同一基础架构中将 AI 与 RAN 结合,从而满足各种用例场景。
3. 交换机和网卡
3.1 为什么 AI-RAN 使用特定类型的交换机和网卡?
当 AI-RAN 部署在多租户数据中心以同时托管 C-RAN 和 AI 服务时,它会利用 NVIDIA Spectrum-X 技术实现高性能网络结构。
Spectrum-X 网络平台搭载 Spectrum-4 交换机和 BF3 SuperNIC,是全球首个专为人工智能打造的以太网架构,相比传统以太网架构,其生成式人工智能网络性能提升了 1.6 倍。该平台针对人工智能计算进行了优化,而人工智能计算的网络架构与云计算不同。图 5 突出显示了基于以太网的云计算与人工智能计算以太网网络需求之间的差异。
此外,Spectrum Switch 结合 NVIDIA BF3 为 AI-RAN 实现以下功能:
- 具有精确时间协议 (PTP) 的前传网络,用于将 RU 连接到云托管的 DU。
- 软件定义的前传功能,可在同一基础架构上弹性编排 RAN 和 AI 功能。
- 介质访问控制 (MAC) 地址重新映射,确保 DU 的无缝迁移。
- 借助加速 Linux 桥接器和支持 PTP 冗余的增强型 NIC 固件,为 AI 和 RAN 流量提供以太网虚拟专用网 (EVPN) 多宿主和主动-主动冗余。
- 安全卸载和服务功能链。
- 中传网络(面向 CU)和回传网络(面向 5GC)。
- 人工智能以太网(数据中心内的东西向网络流量以及往返互联网的南北向网络流量)——具有低延迟、数据平面加速、拥塞控制等功能,适用于 RAN 和 AI 应用。
- 高效存储网络 - 400Gb/s 融合以太网远程直接内存访问 (RDMA) (RoCE)、RoCE 自适应路由和数据包重新排序。
AI-RAN 涵盖 C-RAN 和 D-RAN 部署。
AI-RAN 作为 D-RAN 部署时可能无法充分利用 Spectrum-X 的全部性能,如上所述。典型的 D-RAN 部署由基站中的一台服务器(或少量服务器)组成,并且通常处于功率和散热受限的环境。
D-RAN 网络需要 PTP 和精确的 FH 流量调度。此外,当平台在 RAN 中的利用率不足时,它可以用于运行一些 AI 功能,通常是 AI 推理功能。
对于 D-RAN,NVIDIA 提供两种网络解决方案:
- BF3 DPU
- ConnectX7 NIC,具体取决于部署的规模和性能考虑。
3.2 什么是软件定义的前传接口?
用于 AI-RAN 部署的网络接口卡 (NIC) 需要能够支持高性能 AI 网络,以及支持 RAN 时序和各种 RAN 配置。这种软件定义的多用途接口可以简化网络管理和软件升级,从而支持 1.1 节中描述的所有三个 AI-RAN 用例。
AI 正日益被集成到所有垂直行业中并得到应用。应用程序正在快速发展以使用 Agentic AI,它具有自主决策、适应和采取行动的能力。它旨在在有限的人工监督下工作,并能够执行复杂的任务。自动驾驶汽车、工业机器人、实时语言翻译、XR 摄像头等应用都需要低延迟和确定性处理来提供高质量的体验。
我们对 AI-RAN 的愿景是通过将 5G RAN 和 AI 堆栈紧密集成在电信边缘数据中心(汇聚站点、移动交换局 (MSO) 和中心局 (CO))中,从而处理通过无线网络传输的 AI 流量。这种新架构利用 5G 分布式用户平面功能 (dUPF),高效地将 AI 流量桥接到 AI 推理堆栈,并采用 NVIDIA 无服务器 API 和 NVIDIA NIM(网络接口模块)——图 6。
因此,AI-RAN 为电信运营商开启了新的机遇——将其分布式数据中心(MSO、CO 和接入点 (POP))转换为 AI-RAN 数据中心,并通过结合 RAN 和 AI 服务,为融入 AI 的新兴应用提供低延迟和确定性体验,从而创造独特价值。而这些应用在当今的集中式 AI 基础设施中难以实现。
这只能在精心设计的基础设施上实现,该基础设施包含以下组件:MGX GH200 服务器、Spectrum 交换机和 BF3 DPU,以及它们的关键功能如上所述。在接下来的章节中,我们将探讨三种 AI-RAN 用例(即 AI for RAN、AI and RAN 以及 AI on RAN)的关键网络考量因素。
3.3 AI-for-RAN 的关键网络考虑因素是什么?
有很多机会可以利用 AI 来提升 RAN 的频谱效率,例如信道估计/预测、干扰管理、波束成形、基于深度强化学习 (DRL) 的调制和编码方案 (MCS) 选择等等。这些只能通过嵌入式加速硬件和软件计算能力来实现,这些计算能力在第一层是完全可编程的,例如 NVIDIA AI Aerial 平台下用于无线电信号处理的 NVIDIA CUDA 加速库。
如果 L1 处理由固定功能加速器执行,则无法实现下一代 AI 驱动的 L1 优化。例如,用于波束成形或动态频谱共享的 AI 模型需要持续的软件更新和高性能计算能力。集成定制 ASIC 的专用 RAN 加速器无法支持这些新兴的 AI 模型,因为它们是为静态功能设计的,无法适应强化学习等迭代式 AI 更新。
AI-for-RAN 创新正在不断取得诸多进展,其中包括 AI-RAN 联盟在 2025 年世界移动通信大会 (MWC) 上认可的一些最新演示。这些创新的显著公开案例包括:
- 软银携手 NVIDIA 富士通 演示 AI 在 RAN 中的性能提升,
- Deepsig 使用 NVIDIA 平台展示 6G AI 原生空口
- 是德科技、三星和 NVIDIA 使用 NVIDIA 平台推进 AI-For-RAN
这些创新是频谱效率可能实现变革性提升的早期证据。专用 RAN 加速器无法支持这些持续创新,因为这些加速器不具备可编程性,无法集成这些新技术,而且其开发速度也超过了定制硬件的多年周期。
3.4 AI-and-RAN 的关键网络考虑因素是什么?
NVIDIA 的 NCP 电信参考架构基于 MGX GH200 服务器和 BF3 DPU 构建,允许将 5G RAN、dUPF 和 AI 应用程序部署在由 Kubernetes 管理的同一平台上。这带来了巨大的 TCO 优势,因为平台资源(CPU、GPU、DPU/NIC)可以动态分配给 RAN 和 AI 功能,从而提高其利用率并释放新的 AI 盈利能力。NVIDIA 的 Spectrum-X 与 BlueField-3 DPU 相结合,通过以下方式优化 AI-RAN 性能:
- 优先级和服务质量 (QoS):利用 AI 驱动的流量管理,对延迟敏感的 RAN 流量进行优先级排序,并确保高优先级的 AI 工作负载。
- 提高带宽利用率:从 50-60% 提高到 97% 以上,加快推理工作负载的数据传输速度。
- 降低延迟:先进的拥塞控制可最大限度地减少瓶颈,确保实时响应。
- 提高 GPU 利用率:高效的网络管理可最大限度地利用 GPU 执行 AI 和 RAN 任务。这包括软件定义的前传。
- 降低令牌间延迟:Spectrum-X 提供的更高带宽和更优化的存储性能可降低令牌间延迟。
- 加速存储访问:与传统的 RoCE v2 协议相比,Spectrum-X 可将读取带宽提高高达 48%,写入带宽提高高达 41%。这项增强功能可加快对
推理任务至关重要的数据检索和存储操作,尤其适用于检索增强生成 (RAG) 等技术。
专用 RAN 加速器和网卡 (NIC) 缺乏这些关键功能。
3.5 AI-on-RAN 的关键网络考虑因素是什么?
随着企业应用集成越来越多的 AI 功能并越来越多地在移动网络上运行,在分布式电信数据中心高效处理“AI 流量”对于提供最佳质量和用户体验至关重要。在此架构中,dUPF 用于识别 AI 流量并将其桥接到 AI 推理软件(例如 NVIDIA NIM)。
专用 RAN 加速卡不具备高效 dUPF(GTP 隧道封装/解封装、数据包分类、接收端缩放 (RSS) 和 QoS(计量/标记/监管))所需的功能和灵活性。
AI 代理是消费者和企业应用的下一个前沿领域。代理型 AI 工作负载需要对加速计算硬件和软件堆栈进行优化,以最大限度地降低推理任务的计算延迟。
这些 Agentic AI 优化无法通过专用 RAN 加速器和 NIC 实现,因为它们不是为 AI 工作负载构建的。
3.6 如何在单个网卡 (NIC) 上组合前传、中传、回传和 AI 流量?
在单个网卡(例如单个 BF3)上组合前传 (FH)、中传 (MH)、回传 (BH) 和 AI 流量时,需要考虑以下重要因素:
- 系统吞吐量要求 – 单个 BF3 支持两个 200G 吞吐量端口。了解服务器上 FH、MH/BH 和 AI 应用之间将处理多少总流量至关重要。典型的 4T4R 部署通常使用一个 200G 端口用于 FH,另一个 200G 端口用于 MH/BH 和 AI 流量。
- 容错、冗余和服务保障 – 前传的容错和冗余是通信服务提供商 (COSP) 的关键考虑因素。 NVIDIA 的 NCP 电信参考架构 (RA) 采用 EVPN 多宿主技术,配备两个 BF3 网卡,每个 BF3 网卡上都有一个专用于 RAN FH 的端口,以实现强大的容错能力和服务保障。如下图所示,两个网卡上的 FH 端口均配置为 Active/Active 模式,并为 vDU 应用程序提供单一接口。即使其中一个端口发生故障,vDU 应用程序仍可保持与无线电的连接 - 图 6。
- 由于 FH 需要“精确调度”而导致的网络性能下降——
由于 FH 流量的同步和定时要求,NIC 需要使用一种名为“电信配置文件”的特殊配置。这使得 NIC 能够通过 PTP 定时同步对 FH 流量进行精确调度。当在同一 NIC 上组合 MH/BH 和 AI 流量时,MH/BH 和 AI 流量的性能会略有下降。我们估计性能下降幅度约为 10%。我们相信这种轻微的性能下降不会对整体系统性能造成重大影响。
4. C-RAN 和 D-RAN
4.1 AI-RAN 可以同时部署在 C-RAN 和 D-RAN 环境中吗?
AI-RAN 是一种可扩展的软件架构,涵盖 C-RAN 和 D-RAN 部署。这种可扩展性和软件复用是 AI-RAN 的关键属性和价值主张。
NVIDIA 推荐在托管 C-RAN 的数据中心使用 MGX GH200 和 GB200 服务器。
模块化 MGX 服务器可以支持数据中心内 2KW 到 34KW 或更高功率的服务器机架的供电和制冷能力。未来,许多通信服务提供商 (COSP) 正在积极考虑采用液冷 (LC) 技术的更高密度机架。
对于 D-RAN,NVIDIA 推荐使用 MGX GH200 或 MGX Grace C1 服务器,并配备 PCIe 连接的 GPU 卡(例如 L4 或 L40S),具体取决于 1) RAN 容量和覆盖范围要求以及 2) AI 和边缘计算应用。这确保了 AI-RAN 能够满足 D-RAN 部署中的散热、功耗和成本考虑。
Grace C1 服务器系统可设计为电信短深度服务器,总功耗为 250-300W,可承受高达 55C 的室外温度。
4.2 可以使用单块网卡部署 D-RAN 吗?
D-RAN 部署可以使用单块网卡,例如 NVIDIA BF3 和 CX7,其中一个端口 (200G) 支持前传(FrontHaul,无线网络),另一个端口 (200G) 支持中传/回传和 AI 工作负载。
实际部署需要仔细评估各种因素,例如:小区容量、吞吐量、带宽、AI 和 RAN 工作负载的 QoS、扇出需求、容错能力和冗余要求等。
NVIDIA 已宣布推出下一代 ConnectX8 (CX8) 网卡。CX8 将于 2025 年下半年上市,届时也可用于 C-RAN 和 D-RAN 部署。
相关文章:
【东枫电子】AI-RAN:人工智能 - 无线接入网络
太原市东枫电子科技有限公司,翻译 文章目录 1.概述1.1 什么是AI-RAN?1.2 为什么是AI-RAN?1.3 AI-RAN有哪些好处?1.4 为什么 AI-RAN 会给通信服务提供商 (CoSP) 带来变革?1.5 AIRAN 的构建模块是什么? 2. 参…...
实习技能记录【5】-----项目中消息传递到ui层的方法
代码 while (1){osEvent evt;evt osMailGet(ui_msg_mailbox, 0);if (evt.status osEventMail){UI_MSG_APP_T *msg (UI_MSG_APP_T *)evt.value.p;if (msg->cmd_type CMD_TYPE_INNER){if (msg->cmd_code CMD_CODE_INNER_REFRESH_NOW){lv_obj_invalidate(lv_scr_act()…...
4.29【Q】paraCompute
还是同样的要求,我要写实验报告,如何组织描述运行时间,加速比,效率等随数据规模,进程数,线程数变化的语言和逻辑,从而显得不冗余和精简?为我生成合理排版,布局的文字&…...
什么是布林带?
什么是布林带? 布林带是约翰布林格在20世纪80年代开发的一种广泛使用的技术分析工具。布林带由价格图表上的三条线组成:中轨、上轨和下轨。中轨通常是20天简单移动平均线(SMA),代表资产在此期间的平均价格。上轨和下轨…...
爬虫学习笔记(四)---request入门
例1 例1:写一个爬取百度搜索页面的程序,以搜索一个喜欢的明星为例(如在搜索框中输入周杰伦) 正常搜索 页面 爬虫思路: 1.用一个query变量,在控制台输入的方式更加灵活的输入想爬取的明星的百度搜索页面 …...
JSON配置文件格式全解析与多语言实战指南
JSON配置文件格式全解析与多语言实战指南 摘要 本文全面解析JSON配置文件的核心语法规范,深入探讨数据类型、转义机制及JSON5扩展特性,提供JavaScript/Python/Java等多语言解析方案。通过典型应用场景案例演示JSON的最佳实践,帮助开发者高效…...
JavaScript 中的类型转换机制?
一、类型转换的两种模式 1. 显式转换(手动翻译) 你主动告诉 JavaScript 如何转换类型,比如: let num Number("123"); // 字符串 → 数字:123 let str String(123); // 数字 → 字符串:&qu…...
【分享】音频音乐剪辑[特殊字符]人声分离伴奏提取[特殊字符]拼接合并
音频音乐剪辑是一款专业的剪辑软件。在剪辑过程中,它可以对音频进行拼接合成、音乐裁剪、变调变速、格式转换,同时音频音乐剪辑还是一款支持高清录音、音频降噪等众多功能于一体的音频制作软件。 【应用名称】:音频剪辑 【应用版本】…...
关于 const a 定义的数据 与 其渲染 的问题。即通过const定义的常量,会不会导致渲染不及时。
情况1 (同2、4结论一致) 定义:使用子hook,将数据 const a 【对stateX的一系列操作】 封存到子hook里。并return出去。结果:此种情况不影响实时渲染。缺点:只要stateX变更,一定展示c的最新数据…...
开源Kotlin从零单排0基础完美入门教程
🚀 Kotlin 从零单排 一个让你欲罢不能的 Kotlin 入门教程! 教程仓库地址 👋 Hey,你好啊! 如果你: 🤔 听说 Kotlin 很香,但不知道香在哪?😅 Java 写得头大&a…...
主流微前端框架比较
主流微前端框架比较 以下表格列出了当前主流微前端框架的核心对比信息,包括基本介绍、核心特性、适用场景、技术栈兼容性、优缺点、社区维护情况和典型应用案例等: 框架基本介绍核心特性与机制适用场景技术栈兼容性优缺点社区维护情况典型应用案例qiankun蚂蚁金服推出的生产…...
DOM 事件的处理通常分为三个阶段:捕获、目标、冒泡【前端示例】
如果神明还不帮你,说明他相信你。 目录 引言:捕获阶段:目标阶段:冒泡阶段:事件传播示意图:示例:代码:解读:输出: 引言: DOM 事件的处理通常分为三…...
C#实现对达索(Dassault)SolidWorks中3D图纸转化为手机可直接查看预览图纸格式
转化环境无需安装SolidWorks。 代码更新:暂不公开。 实现效果:...
Twitter 工作原理|架构解析|社交APP逻辑
这是对Twitter 工作原理|架构解析|社交APP逻辑_哔哩哔哩_bilibili的学习,感谢up小凡生一 在两年半前,埃隆马斯克收购了Twitter,并且进行了一系列重大改革。今天我们来解析一下这个全球知名社交平台的架构。首先&#x…...
模拟集成电路设计与仿真 : Feedback System
前情提要 此為作者針對迴授系統,進行資料統整,以便日後查詢 原理 1. The Whole System 更正 : V - V feedback 是 並 - 串 迴授 2. Feedback Block Beta 更正 : ,所以 the whole systemfeedback block左 2右 1 feedback block feed…...
Linux权限管理进阶:文件归属、特殊权限与ACL详解
一、文件归属管理:chown命令 1. 基础语法与作用 chown 命令用于修改文件或目录的 属主(Owner) 和 属组(Group),是Linux权限管理中调整资源归属的核心工具。 chown [选项] 新属主:新属组 文件/目录 常用…...
MyBatis、MyBatis-Plus、Hibernate、Spring Data JPA 等 Java 持久层技术的理解和对比
一、基本概念 1. MyBatis 是一个 半自动的 ORM 框架(Object-Relational Mapping),用于简化 JDBC 开发。它允许你通过 XML 或注解配置 SQL 语句,将 Java 对象与 SQL 查询结果进行映射。 2. MyBatis-Plus(MPÿ…...
如何用vivado导出pin delay
目录 简介: Vivado工具导出pin delay步骤: 简介: 通过在一些等长要求比较严格的场合,会考虑到FPGA内部的走线,这时候就需要用到方法去导出fpga的pin delay。本文以xinlinx 的UltraScale系列的XCKU060-2FFVA1156I为例…...
【图片识别改名】批量读取图片区域文字识别后批量改名,基于Python和腾讯云的实现方案
项目场景 办公文档管理:将扫描的发票、合同等文档按编号、日期自动重命名。例如,识别“编号:2023001 日期:20230403”生成“2023001_20230403.jpg”。产品图片整理:电商产品图片按产品编号、名称自动命名。例如,…...
数字中国浪潮下:Coremail AI赋能邮件办公,筑牢安全防线引领转型
4月28日,在第八届数字中国建设峰会新产品新技术发布会上,Coremail分享了AI在邮件产品领域的最新应用成果和实践经验。 作为互联网之后的又一波技术浪潮,人工智能(AI)已成为推动各行业变革的核心力量,为企业…...
软件设计师-软考知识复习(1)
写在前面 复习软考,把一些忘记了的知识整理一下,方便后续查看。 设码长为8,补码为11111111,其真值是多少( ) A.1 B.-1 C.127 D.128 参考答案:B 解题步骤 1. 理解补码表示法 在计算机中&…...
快速安装Arduino IED的STM32 MCU开发包
从github安装STM32 MCU开发包非常慢,很难安装成功。因此我将Arduino IED的TM32 MCU开发包上传到国内网站,亲测安装成功。 1.打开Arduino IED,文件--首选项--其它开发板管理地址,添加http://www.aluoyun.cn/BoardManagerFiles-mai…...
Html 2
一,表单 1.概念:在一个区域中,拥有许多输入和最终组件,可以让用户输入、选择信息,最终将信息传入服务器端 2.常用组件: (1)<form action " " methon "get&qu…...
业务层在事务中高频创建动态表然后删除或者回滚导致 pg_dump 概率出现备份失败问题分析
文章目录 测试环境,业务层在事务中高频创建动态表然后删除或者回滚导致 pg_dump 概率出现备份失败职责划分应用层对 DDL 事务的滥用 导致的目录污染怎么理解?应用层在事务中大量高频新建动态表, 然后删除表, 有啥隐患目录版本风暴…...
图漾官网Sample_V1版本C++语言完整参考例子---单相机版本
文章目录 1.参考例子 主要梳理了图漾官网Sample_V1版本的例子 1.参考例子 主要增加了从storage区域读取相机参数的设置,使用图漾PercipioViewer软件,如何将相机参数保存到srorage区,可参考链接:保存相机参数操作 保存参数设置 注…...
SSM书籍管理(业务编写)
查询书籍功能 编写Controller类 Controller RequestMapping("/book") public class BookController {//controller调用service层AutowiredQualifier("BookServiceImpl")private BookService bookService;//查询全部的书籍,并且返回到书籍展示…...
kafka消息的顺序性如何保持一致的
目录 背景: 原理: 情况一:如果只有一个分区 情况二:如果有多个分区 总结 背景: 最近面试总是被问这个问题,然后总感觉答得不好就写博客总结一下,可以先看总结 原理: Kafka 中&#…...
在Java中基于Geotools对PostGIS数据库的空间查询实践
目录 前言 一、相关技术背景介绍 1、评价对象AOI 2、数据处理流程 二、对AOI空间范围查询实践 1、空间查询构建 2、空间样式创建 3、成果出图 三、总结 前言 在当今数字化浪潮下,空间数据的应用价值日益凸显,从城市规划到环境监测,从…...
生活需要一些思考
总分总 写文章、做事情、写邮件、写信,都是要【总分总】。 先总【因为没人有耐心一上来就看细节,先总结,别人感兴趣才会看分】 然后分【分中包括多个子部分,或子章节、子目标,他们之间层层递进,最终引出最…...
Scrapy框架之CrawlSpider爬虫 实战 详解
CrawlSpider 是 Scrapy 框架中一个非常实用的爬虫基类,它继承自 Spider 类,主要用于实现基于规则的网页爬取。相较于普通的 Spider 类,CrawlSpider 可以根据预定义的规则自动跟进页面中的链接,从而实现更高效、更灵活的爬取。 Scr…...
DeepSeek主动学习系统:低质量数据炼金术的工程化实践
文章目录 一、技术体系架构升级1.1 四层协同系统架构1.2 关键技术组件解析(1) 跨模态特征对齐引擎(2) 动态采样策略库 二、低质量数据治理全流程2.1 数据清洗与增强流水线2.2 主动学习迭代流程 三、工业级部署方案3.1 分布式计算架构3.2 动态环境应对策略(1) 概念漂移检测(2) 持…...
学习记录:DAY20
技术探索之旅:YAML配置,依赖注入、控制反转与Java注解 前言 最近有点懒了,太松懈可不行。为了让自己保持学习的动力,我决定将最近的学习内容整理成博客,目标是让未来的自己也能轻松理解。我会尽量以整体记录的方式呈…...
[AI]browser-use + web-ui 大模型实现自动操作浏览器
[AI]browser-use web-ui 大模型实现自动操作浏览器 介绍 官方地址:https://github.com/browser-use/web-ui browser-use主要作用是将 AI Agent 与浏览器链接起来从而实现由 AI 驱动的浏览器自动化。今天会给大家介绍如何通过browser-use web-ui来搭建并操作browse…...
使用LangChain连接远程Oracle数据库尝试LLM 提供的SQL智能助理
使用LangChain连接远程Oracle数据库尝试LLM 提供的SQL智能助理 为完成此次数据库连接实验,笔者用自己的笔记本电脑搭建了一台linux虚机,安装了oracle 23C,并借助deepseek创建了若干与电商业务有关的表并插入了一些记录。 接着在windows实体…...
训练神经网络的批量标准化(使用 PyTorch)
构建神经网络是一门艺术,而非一个结果固定的过程。你无法预知最终能否得到有效的模型,而且有很多因素可能导致你的机器学习项目失败。 然而,随着时间的推移,您还将学会一套特定的笔触,这将大大提高您成功的几率。 在…...
阿里Qwen3 8款模型全面开源,免费商用,成本仅为 DeepSeek-R1 的三分之一
想要掌握如何将大模型的力量发挥到极致吗?叶梓老师带您深入了解 Llama Factory —— 一款革命性的大模型微调工具(限时免费)。 1小时实战课程,您将学习到如何轻松上手并有效利用 Llama Factory 来微调您的模型,以发挥其…...
Vue常用的修饰符有哪些有什么应用场景(含deep seek讲解)
Vue.js 事件修饰符的功能与具体应用场景 一、事件修饰符 .stop .stop 的主要作用是 阻止事件冒泡,防止事件从子元素传播到父元素。这在处理嵌套组件或多层 DOM 结构时非常有用。 <div click"parentClick">Parent<button click.stop"chi…...
案例分享|20倍提效!水力设备电磁仿真的云端实战
在现代水力设备制造领域,电磁仿真是贯穿设计、研发到故障诊断的核心技术之一。而随着"双碳"目标驱动下清洁能源设备的迭代加速,水轮机、水泵等设备研发的多物理场耦合特性对仿真精度提出前所未有的挑战。传统仿真工具在处理复杂多物理场耦合等…...
ShenNiusModularity项目源码学习(25:ShenNius.Admin.Mvc项目分析-10)
本文学习并分析ShenNiusModularity项目中的留言管理页面、回收站页面。 1、留言管理页面 留言管理页面用于检索、删除系统中的留言数据,该页面对应的文件Index.cshtml位于ShenNius.Admin.Mvc项目的Areas\Cms\Views\Message内。页面使用的控制器类MessageController…...
github使用记录
1. 首次上传本地项目到 GitHub 1.1 准备 GitHub 仓库 登录 GitHub,点击右上角 → New repository输入仓库名称(建议与本地目录同名)选择公开(Public)或私有(Private)不要勾选 "Initiali…...
NFS-网络文件系统
NFS介绍 NFS ( Network File System ) 即网络文件系统 ,它允许网络中的计算机之间通过TCP/IP网络共享资源。在NFS的应用中,本地NFS的客户端应用可以透明地读写位于远端NFS服务器上的文件,就像访问本地文件一样NFS的好…...
Andorid车机UI适配,AndroidUI图px的单位,如何适配1920x720,PPI100的屏幕设备
在 Android 开发中,针对 1920720 分辨率、PPI 100 的屏幕设备进行 UI 适配,需要综合考虑 像素密度(PPI)、屏幕尺寸 和 Android 的密度无关像素(dp) 体系。以下是完整的适配方案: 📌 …...
4.2.4 MYSQL的缓存策略
文章目录 4.2.4 MYSQL的缓存策略1. MYSQL缓存方案用来干什么 2. 缓存相关知识1. mysql主从复制2. 为什么需要缓冲层3. 还有哪些类型数据库 3. 那些方式会提升MYSQL读写性能1. mysql读写分离2. 连接池3. 异步连接 4. 缓存方案是怎么解决的1. redis和MYSQL一致性状态分析1. 流程&…...
省科学技术奖申报答辩PPT设计制作美化
自然科学奖、技术发明奖和科技进步奖是科学技术奖励体系中的三大核心奖项 省科学技术奖的含金量极高,主要体现在经济激励、社会认可、创新驱动及资源整合等方面。其价值不仅在于奖金和荣誉,更在于对科研生态的长远影响,国家科学技术奖的敲门…...
基于 ARM 的自动跟拍云台设计
标题:基于 ARM 的自动跟拍云台设计 内容:1.摘要 摘要:随着摄影和监控需求的不断增长,自动跟拍云台的应用越来越广泛。本设计的目的是开发一款基于 ARM 的自动跟拍云台,以实现对目标的精准跟拍。采用 ARM 微控制器作为核心控制单元࿰…...
Linux电源管理(3)_关机和重启的过程
原文:Linux电源管理(3)_Generic PM之重新启动过程 1.前言 在使用计算机的过程中,关机和重启是最先学会的两个操作。同样,这两个操作在Linux中也存在,可以关机和重启。这就是这里要描述的对象。在Linux Ke…...
SQLMesh增量模型实战指南:时间范围分区
引言 在数据工程领域,处理大规模数据集和高频率数据更新是一项挑战。SQLMesh作为一款强大的数据编排工具,提供了增量模型功能,帮助数据工程师高效地管理和更新数据。本文将详细介绍如何使用SQLMesh创建和管理基于时间范围的增量模型…...
LeetCode -160.相交链表
题目 160. 相交链表 - 力扣(LeetCode) 解法一 哈希表 哈希表解决方案的思路 这个使用哈希表(unordered_set)的解决方案基于一个简单的观察:如果两个链表相交,那么相交点及之后的所有节点都是两个链表共…...
针对Linux挂载NAS供Minio使用及数据恢复的需求
针对Linux挂载NAS供Minio使用及数据恢复的需求,设计以下分阶段解决方案: 一、存储架构设计 存储拓扑 [Minio Server] --> [NAS挂载点 (/mnt/nas/minio-data)] --> [企业级NAS设备]│└─[备份服务器/存储] (可选异地备份)组件版本要求 Minio版本&a…...
【大厂实战】API网关进化史:从统一入口到智能AB分流,如何构建灰度无感知系统?
【大厂实战】API网关进化史:从统一入口到智能AB分流,如何构建灰度无感知系统? 1. 为什么API网关是AB面架构的天然起点? 在分布式微服务架构中,API网关(API Gateway)承担着重要职责:…...