人工智能(AI)和无线接入网络(RAN)融合能够革新网络基础设施、提高移动网络效率、降低网络运维成本,并为电信企业释放新的商业机会,已成为行业发展重要趋势。标准化的质量与成熟度是AI使能无线网络重塑升级的关键,国际标准组织3GPP正在积极探索AI与RAN的融合并取得了一些进展,中国移动积极贡献,在该领域发挥了技术和产业引领作用,主导大数据采集、AI与RAN融合等多个项目,制定了统一的数据收集方案和功能框架设计,为网络自动化和智能化奠定了基础。然而,AI赋能RAN的技术革新并非一蹴而就,AI模型训练数据获取、模型泛化性、模型传输等问题,都是当前标准化与应用过程中必须面对的关键挑战。为应对这些挑战,业界需要客观冷静地看待AI与RAN的融合,产学研用伙伴紧密合作,通过数据匿名化和去标识化、联邦学习、环境自适应的AI模型设计、基于参考模型算法结构的模型传输等潜在措施,共同推动AI技术在无线通信行业的创新应用,加速AI与RAN融合技术的成熟发展,为无线网络变革做好充足的准备。
AI与5G RAN融合的探索历程
随着移动通信技术的快速发展,网络规模和复杂性急剧增加,传统的网络管理方式效率低、易出错,且难以有效建模复杂问题,亟需自动化、智能化的手段来降低网络部署和运维成本,提升网络性能。以中国移动为例,目前已部署超过300万5G基站,能耗和运维难度成为网络管理的重大挑战,亟需采用智能化解决方案来实现成本效益和运营效率的双提升。AI技术以其卓越的大数据处理和预测能力,深入分析海量数据,挖掘数据间的潜在关联,预测未来的趋势和结果,为无线接入网提供了更加智能化的管理手段。然而,目前基于AI的解决方案在现网中的应用仍存在局限性,例如,局限于单一厂商的网络设备,缺乏跨厂商的协同优化能力,且优化效果多局限于特定网元,无法全面扩展至网络和终端间的协同优化。为了克服这些局限,亟待开展AI与RAN融合的全球通用标准制定工作。
3GPP作为全球通信行业的权威标准组织,涵盖了从终端、无线接入网、核心网和业务端到端移动通信系统,为5G技术的发展提供了统一的框架和协议规范,其制定的标准是5G网络落地应用的基石。3GPP早在5G标准化初期就开始了AI赋能RAN的布局,2018年中国移动牵头的Rel-16 “RAN-centric data collection and utilization”项目,通过定义统一的数据测量量和自动化的数据收集方案,为5G网络自动化和智能化提供有力抓手,该项目为后续AI与RAN的融合奠定了坚实的基础。在此基础上,中国移动在R17版本牵头启动了首个AI与RAN融合的研究项目,制定了统一的功能框架和协议流程等顶层设计,打通了5G与AI融合的关口,同时面向网络能耗优化、负载均衡和移动性管理等关键用例进行了针对性优化,正式拉开了3GPP RAN与AI融合的标准化序幕。
除了传统的通信行业参与者,越来越多AI领域的公司也积极投身到无线通信技术演进中,希望在即将到来的6G时代抢占有利地位。英伟达作为目前AI芯片领域的领导者,联合软银(投资了ARM)、爱立信等半导体公司、传统通信公司、软件公司和学术机构在2024年2月牵头成立了AI-RAN联盟,重点关注通过AI提升RAN的性能、基础设施共享以及在网络边缘部署AI服务提高运营效率并为移动用户提供新服务。其本质是将AI能力从云扩展到管,通过定义AI RAN的系统架构、硬件平台等关键特征,辅助AI芯片公司进军传统RAN市场,通过提供GPU或基于GPU的虚拟基站(vRAN)实现其技术和产品的商业化。
3GPP中AI+RAN项目简介
3GPP从AI重构智能无线接入网的可行性出发,启动了多项技术研究与标准制定项目,旨在将AI技术与5G RAN深度融合,重点提升网络频谱效率、构建智能化运维体系、打造极致节能和资源管理等关键能力。为满足多样化的AI赋能需求,3GPP构建了支持多场景的AI统一功能架构,包括数据收集、模型训练、管理、推理、传输、识别、监控等模型全生命周期管理功能,不仅是5G网络智能化的基石,也为未来网络发展提供了强大支撑。
图1:AI统一功能架构
在现有5G架构的基础上,3GPP对单点用例进行针对性突破,为5G+AI的深度融合、商用部署以及6G内生AI奠定了坚实基础。主要研究用例如下:
(1)CSI反馈增强:CSI信息对于提升网络频谱效率至关重要,然而传统CSI码本反馈精度低、高速移动场景上报时延大。3GPP研究了基于AI的CSI压缩反馈和CSI时域预测两个子用例。CSI压缩反馈是通过终端侧的AI编码器高效提取信道信息的关键特征,以极少的比特传输给基站,大幅降低了空口传输开销。同时,基站侧的AI解码器能准确还原原始信道信息,实现了高效压缩与精准恢复。CSI时域预测是通过在终端侧部署AI预测模型,基于历史CSI数据预测未来信道状态。仿真评估表明,基于AI的预测方案能提升系统平均吞吐量约10.6%。
(2)波束管理增强:针对高频通信场景终端波束测量开销大、高速移动场景波束指示精度低等挑战,研究了基于AI的空域波束预测和时域波束预测两个子用例。针对空域波束预测,部署在终端或网络侧的AI模型可以通过有限波束测量快速预测全局最优波束。基于AI的方案不仅能大幅减少终端测量开销,还能提高波束预测准确率约70%。针对时域波束预测,AI模型可以根据历史波束测量结果预测未来最优波束。仿真显示,基于AI的方案能提升预测准确率约60%。
(3)定位增强:在5G NR定位技术中,非视距(NLOS)场景下的定位精度一直难以提升,3GPP研究了基于AI的直接定位和辅助定位两个子用例。通过在终端、基站或定位服务器(LMF)部署AI模型,分析用户位置数据和信道状态信息,从时、频、空等多个维度提取深层次特征,预测和校正基站间同步误差等非理想因素,有效克服了NLOS场景下传统定位算法失准痼疾。仿真结果表明,该技术可实现亚米级的定位精度,有效扩展了5G定位技术的应用场景。
(4)网络节能:5G基站能耗问题备受瞩目,网络节能成为助力双碳目标的关键议题。传统的小区激活与去激活、负载降低和覆盖调整策略虽有效果,但操作不当可能损害网络性能或增加能耗。通过在基站侧部署AI模型,分析服务基站和邻站的资源及能耗数据,预测网络能耗效率和小区负载状态,优化小区激活与去激活策略,包括关断时机、时长及负载分流策略,能够实现系统性能与节能效率之间的平衡。仿真评估表明,加载AI功能的小区节能时间增加了至少90%。
(5)负载均衡:5G网络负载均衡是提升运营效率与用户服务质量的关键,但是传统方案受限于调整策略滞后、流量调度不均衡、网络配置复杂、运营成本高等问题。基站侧通过部署AI模型,能够实时预测服务基站及邻站的资源使用状态、终端的RRM测量结果,制定精确的负载均衡策略,包括待切换的候选终端、目标小区选择及切换时机等。进一步地,还能基于终端切换后的吞吐量、时延、丢包率等反馈信息持续优化模型。
(6)移动性增强:在高频、高速场景下,终端切换频率增加,频繁测量导致终端功耗增加,且切换性能较差,易发生切换失败、无线链路失败等问题。同时,XR等新兴业务对于移动性过程中的业务连续性、可靠性和时延等提出了更高要求。通过在终端或基站侧部署AI模型,能够基于空、时、频域预测小区测量结果,减少终端测量开销。此外,AI模型还能预测测量事件、无线链路失败发生的时间或概率,辅助网络进行切换决策和准备,提升切换性能。
AI+RAN标准化及产业应用面临的挑战
业界普遍认同AI与RAN的结合具有显著的研究与应用价值,且不同标准组织在技术研究方向上形成了广泛共识。然而,AI与RAN的深度融合仍面临一系列技术和产业挑战,AI模型训练数据获取、AI模型的泛化性、AI模型传输等成为当前标准化与应用中面临的主要难题。
AI模型训练数据获取的挑战
在AI领域,数据是训练模型的基础,对于算法的准确性和效率至关重要。AI+RAN模型的数据集通常涉及网络拓扑、无线配置、信道条件、用户行为、终端和芯片的软硬件等信息,这些数据分布在运营商、网络厂商、终端厂商和芯片厂商,仅使用某一方的数据很难训练出性能良好的AI模型。因此,3GPP尝试通过标准化的方式统一数据集,但在解决方案的选择上仍然存在分歧与挑战。
各方都希望获取全面、丰富的数据集,用于训练先进的AI模型。先进的AI模型不仅可以作为企业的竞争优势,还能减少对外部供应商的依赖,确保企业在技术创新和应用上保持独立性。
由于潜在的隐私安全风险,各方不愿意把自己的数据分享出来。数据的共享可能会导致网络拓扑、网络配置、用户信息、终端和芯片内部实现算法等隐私和知识产权的泄露,会严重损害相关方的声誉和利益。
不同实体训练的模型因软硬件差异难以直接应用到另一方的设备上。例如,芯片厂商认为只有自己训练的模型才能与其芯片的软硬件适配。
针对上述挑战,潜在的方案可能包含:1)通过数据匿名化和去标识化,减少隐私泄露风险;2)利用联邦学习技术,允许数据保留在本地,同时实现模型的共同训练;3)通过可信任的第三方实体统一管理数据,比如政府或国际标准组织建立的数据中心,能够确保数据的安全隐私,并促进数据的共享和利用,支持AI模型的训练和优化。
AI模型的泛化性
泛化性是评估AI模型的关键指标之一,良好的泛化性意味着模型在不同条件下都能保持稳定的性能。在无线通信领域,考虑到通信环境复杂多变,包括不同的网络部署、信道条件、用户行为、信号干扰等,AI模型的泛化性尤为重要。然而,AI模型的泛化性保证主要面临以下挑战:
数据多样性:需要使用多样化的训练数据集,包含不同的场景和条件,以涵盖各种网络参数和信道环境,确保模型能够学习到足够多样的特征。但上文提到的数据隐私问题限制了多样化数据的采集和使用。
模型设计复杂:通常需要较为复杂的模型才能从训练数据中有效提取到丰富多样的特征,但这样的模型往往伴随着更多的模型参数、更高的训练成本和更复杂的模型推理。
终端存储和算力制约:现有5G终端设备由于存储和算力有限,无法支撑复杂的模型应用。但3GPP评估显示,小模型的泛化性普遍较差。
AI+RAN的设计需要在模型的泛化性、复杂度以及终端算力之间找到一个良好的平衡点,探索出既能适应多样化的无线环境,又能在算力受限终端上高效运转的AI技术,才能实现RAN侧网络智能化的稳步落地。目前潜在的解决方案包括:1)标准化的数据采集机制,通过更广泛、更丰富的训练数据,提升模型在不同区域和应用场景下的适用性;2)基于环境感知的超网络模型设计,能够根据环境变化自适应调整模型,从而更好地适应不同的环境特征。
AI模型传输的困境
为了获得更好的性能,针对不同的网络参数或场景可以部署定制化的模型,然而,受限于终端存储能力,终端难以在本地存储多个模型。因此在终端和网络等多个节点间进行模型传输成为潜在的有效解决方案。
具体地,模型传输可分为通过OTT服务器传输和通过基站传输两种方式,但各有其优势和局限。
针对OTT服务器传输模型方式,尽管OTT服务器具备提供模型训练和传输的能力,但难以实时获取当前的网络配置或场景信息,可能导致传输的模型不能适配当前环境。
针对基站传输模型方式,基站能够实时感知无线网络配置或场景信息,但不能掌握终端芯片软硬件实现信息,可能导致传输的模型与终端能力不匹配。此外,模型传输可能导致模型设计算法等知识产权泄露。
为了破解上述方案的局限性,一种潜在的解决方案是基于标准化模型算法结构的模型参数传递方案,通过定义若干种参考模型结构,基站仅需传递对应参考模型结构的模型参数。但该方案也面临着模型性能受限、参考模型结构选择困难、基站与终端之间的互操作性测试等严峻挑战,仍需进一步研究。
总结与展望
AI与RAN的融合标志着通信技术发展的一个重要里程碑,但新技术的发展总是充满了不确定性和挑战,我们需要以一种客观理智的态度来审视AI在RAN领域的应用。AI模型训练数据获取、数据隐私安全、模型泛化性、模型传输、模型训练和推理所需的额外算力和系统复杂度等问题都是AI与RAN融合的关键挑战。面对这些挑战,我们必须在AI模型的设计上寻求高性价比和高能效的最优解,通过持续的技术创新来平衡性能与成本,确保AI技术的实用性和可靠性。
同时,AI与RAN的融合也预示着产业链结构的潜在变革。AI技术的发展离不开高性能的CPU和GPU等计算资源,现有的产业链格局需要相应的调整和升级以适应AI与RAN融合的发展趋势。中国在高端芯片领域所面临的限制,包括RAN智能计算芯片及其生态系统的薄弱,对中国AI与RAN融合的持续发展带来了挑战。
AI已成为全球关注的焦点,为各行各业带来了前所未有的机遇,业界普遍认为6G初期引入AI功能将开启一个高度智能化自动化的通信新时代。为了在下一代通信技术的竞争中占据有利地位,国内产业界需要加大研发投入,促进产学研用的深度融合,加速自主技术创新的步伐,同时加强国际合作,促进AI与RAN融合技术的发展与成熟,构建完善AI与RAN融合的生态系统,为实现更智能更高效的无线通信网络奠定坚实的基础,为6G时代的到来做好充足的准备。