前沿探索
5.5G时代的人工智能:场景、关键技术与未来趋势
本文探讨 AI 的演进趋势,分析 AI 在 5.5G 网络中的关键价值,讨论 AI 时代下新出现的应用场景,并识别这些场景对 5.5G 网络的关键需求与挑战。

文/无线网络研究部:林英沛,陈雁,秦熠,孙琰,徐瑞,杨玉雯,张征明,陈家璇,田洋,曹佑龙,柴晓萌,陈宏智,齐鸿,庞旭
1 引言
在信息时代,通信技术的发展一直是推动社会变革的重要力量。5.5G作为最新一代的通信技术,以其高速率、低延迟和高可靠性的特点,为各种新兴技术的应用提供了广阔的平台。在这一背景下,人工智能(Artificial Intelligence,AI)技术与5.5G的结合,预示着通信领域的一次革命性飞跃。
AI技术,以其强大的数据处理能力和智能决策支持,已经成为现代技术革命的核心。从基础理论研究到广泛的行业应用,AI正不断拓展其影响力,尤其在移动通信领域,AI的应用已经开始重塑网络架构和服务模式。本文旨在探讨5.5G时代AI技术的关键作用和发展趋势,分析AI如何助力5.5G网络性能的提升,并展望AI技术在未来通信领域的应用潜力。
本文通过回顾AI模型、算力、数据和应用范式的发展进程,总结了AI演进的趋势(第2节),分析了AI在5.5G网络中的关键价值(第3节),讨论了AI时代下新出现的应用场景,例如人工智能生成内容(Artificial Intelligence Generated Content,AIGC)和具身智能,并识别了这些应用场景对5.5G网络的关键需求与挑战(第4节)。针对这些关键挑战,本文进一步阐述了AI如何在5.5G时代提升网络性能,以及5.5G网络如何提供高质量的AI服务的关键技术(第5节)。最后,本文对AI与5.5G深度融合的未来进行了展望,期待这一融合能够开启一个智能化和个性化的通信新时代(第6节)。
2 AI的演进趋势
AI不仅已成为当代技术革命的核心驱动力,而且通过深度挖掘数据中的高价值信息,在各行各业产生了无可争辩的深远影响。AI作为一门多学科交叉的学科,不仅涉及基础理论和前沿研究,更是一种广泛应用于各个领域的技术,具有显著的实际影响和商业价值。AI技术的突破性发展,特别是在移动互联网等行业的重塑,不仅重新定义了我们对可能性的认知,还推动了社会和经济的深刻变革。AI的发展历程充满了令人难以置信的突破、质疑与不断演变。站在AI进一步发展的新起点,我们清晰地认识到AI的潜力是无限的。随着5.5G时代的到来,AI的爆发式发展要求我们积极拥抱这一技术,以实现不断的突破和持续的进步。
2.1 AI模型的发展
以神经网络模型为代表的AI模型于1943年,由Warren Sturgis McCulloch和Walter Pitts共同提出,在经历跌宕起伏的发展与质疑的岁月后,以Frank Rosenblatt提出的感知机为基础的AI模型于1993年正式进入蓬勃发展阶段。在此之后,机器硬件快速迭代更新,运算能力及储存空间大幅提升,AI模型渐渐地在各个领域应用,并再次受到企业各界的重视。研究者通过为感知机添加更多的层创建了可以在硬件实体上工作的多层感知机,并将其用于图像的识别。
在多层感知机显示出解决图像识别等复杂问题的潜力之后,研究者开始思考如何发明新型的AI模型以对文本等数据进行建模。最终于1997年长短期记忆(Long Short Term Memory,LSTM)递归神经网络被提出并对后来的AI的研究产生了深远影响。得益于计算与存储设备的迭代升级,涉及由三个门(输入门、遗忘门和输出门)控制的记忆单元的LSTM架构可以通过逻辑门决定AI模型的记忆增减和输出。LSTM作为循环神经网络的代表在处理长序列的问题上表现出强大的能力,并成为文本分类、情感分析、语音识别、图像标题生成和机器翻译等序列任务的经典神经网络架构。然而,为获得最佳的效果,研究者发现这类AI模型的参数规模较大并且计算成本较高,在计算能力受限的情况下仍不能满足需求。
2006年,Geoffrey Hinton发明出了受限玻尔兹曼机模型与深度信念网络可以训练多层神经网络,并将多层神经网络正式命名为“深度学习”(Deep Learning,DL)。从此,AI模型进入深度神经网络时代。以深度神经网络为基座堆叠更多的层和设计更巧妙的结构为代表的AI模型不断涌现出来,并开始取得让人振奋的结果。例如,由5个卷积层、1个最大池化层、3个全连接层和一个softmax层组成的AlexNet赢得了ImageNet大规模视觉识别挑战赛。业内迅速认识到深度卷积神经网络可以很好地处理视觉识别任务,并由此开启了卷积神经网络大规模开发与应用的时代。最具代表性的VGG和ResNet被先后提出,并成功将计算机视觉任务的性能提升到前所未有的高度。AI模型从原来的简单两层神经网络发展到了具有10层以上卷积层的VGG模型和具有50层以上卷积层的ResNet模型。同时,AI模型的能力从原来识别光学字符识别(Optical Character Recognition,OCR)等简单图像变成了实现语义分割,实例分割等高级任务。但与此同时,研究者也注意到这些卷积神经网络在自然语言处理任务上还存在一定的局限性,AI模型在自然语言的理解方面仍效果欠佳。
随着以注意力机制为重要组成单元的Transformer横空出世,AI模型遇到的自然语言理解的挑战取得了重要突破。Transformer是一类基于注意力机制的神经网络模型,这类模型不使用循环网络或卷积,而是由多头注意力、残差连接、层归一化、全连接层和位置编码组成,在保留序列顺序的同时挖掘序列信息的相关性。Transformer彻底改变了自然语言处理,并迅速成为主导其他方向(例如,计算机视觉领域)的核心AI模型。在自然语言处理中,这类AI模型被用于机器翻译、文本摘要、语音识别、文本补全、文档搜索等,并最终导致ChatGPT等大语言模型(Large Language Model,LLM)的问世。由OpenAI于2022年11月发布的ChatGPT成为生成式AI的现象级应用。该AI模型基于GPT-3.5架构并通过强化学习进行训练,完成了AI模型从图像识别到图像理解再到生成式人工智能(Generative Artificial Intelligence,GenAI)的华丽转变。而AI模型的参数规模也从原来的几千个变成了以million(百万)为单位和以billion(十亿)为单位。
2.2 AI算力的发展
计算能力,也即算力,是AI发展与进步的关键驱动力。在过去的10年中,用于训练AI模型的计算量增加了3.5亿倍。AI的许多进步源于用于训练和运行AI模型的算力的显著增加。在LLM、AlphaGo、蛋白质折叠模型和自动驾驶模型中,与以往训练和部署小规模AI模型不同的是,开发人员成功地利用了巨大的算力,在庞大的数据集上训练模型,以使得AI模型学习如何解决问题。在许多AI领域,研究人员发现了缩放规律:训练目标(例如“预测下一个单词”)的性能会随着用于训练模型的计算量的增加而增加。
得益于硬件的改进,无论是终端设备还是基站和云端,算力都得到了前所未有的提升。随着CPU、GPU和TPU等先进计算设备的发展,计算不仅限于传统的数据中心,计算开始走向边缘,并逐渐走向全栈场景。通过部署具备计算能力的智能设备,云、边、端的计算能力都成为了AI的算力,有效提升了AI的计算效率和性能。其中,云将收集到的数据存储到数据中心,在中心点进行计算和处理;基站设施组为边缘计算设备,也开始具有并发挥出强大的数据计算和处理能力;并且,随着终端设备智能化程度加深和AI模型的升级迭代,智能终端处理器的性能大幅提升,终端算力得到了增强。
2.3 AI数据的发展
训练AI模型需要高质量和大规模的数据,这些数据是AI的燃料,是AI取得成功的决定性因素之一。在AI发展初期,研究者以人力采集的方式构建极其有限量的数据集,这些数据被用于AI模型的训练和测评。然而,随着AI模型规模和能力的发展,研究者很快注意到训练数据成为了获得更高性能AI模型的瓶颈。对高质量训练数据的渴求成为了当前AI发展的重大挑战。例如,当前大规模的AI语言模型是利用从互联网上获取的文本建立的,包括科学研究、新闻报道、维基百科条目等,这些数据被分解为词元。据研究人员估计,GPT4模型所使用的训练数据已经包含了高达12万亿的词元。AI模型在未来继续遵循当前的增长轨迹则需要60万亿到100万亿的词元用于训练。为应对训练数据枯竭,AI领域需要更强的数据获取能力。
2.4 AI应用范式的变化
在AI发展的早期,AI应用主要集中在功能拟合上,即通过神经网络模型去模拟完成特定功能或任务,如分类、预测、优化等。这些应用通常基于规则或统计模型,目标是提高效率和准确性。随着大数据技术的发展,AI应用开始转向数据驱动的模型,依赖大量数据来训练算法,实现更准确的功能拟合。
近年来,AI大模型的快速发展不仅使得AI能够更高效地处理数据,而且还能够创造新的数据和内容。生成式AI通过深入到输入数据的底层分布,理解数据和标签的联合概率分布,生成类似于训练数据的内容,从而允许创造性的数据合成和增强。AIGC这一新兴范式,不仅拓宽了AI应用的深度与宽度,而且利用AI取代了手动内容生成,成为未来最具潜力的发展方向。
AIGC能够生成的内容包括文本、语音、视频等。自然语言生成技术的进步,例如OpenAI推出的ChatGPT,展示了AI在创造性文本生成方面的巨大潜力。ChatGPT不仅能基于预训练阶段学到的模式和统计规律生成回答,还能完成撰写论文、邮件、脚本、文案、翻译、代码等多样化任务。同样,在图像和视频领域,深度学习技术如生成对抗网络和扩展模型等,也被用于生成逼真的图像和视频内容,包括动画、模拟场景和特效等。OpenAI的Sora展示了AI在视频生成方面的能力,能够根据文本指令生成具有多个角色、特定类型运动及精确主题和背景细节的60秒复杂视频场景。
总的来说,AI应用范式从简单的功能模拟,演进到能够理解、学习和创造的复杂智能系统。AIGC作为AI发展的新篇章,不仅为AI领域带来了新的可能性,也为各行各业提供了创新的工具和解决方案,预示着一个充满想象力和创造力的新时代的到来。
3 AI在5.5G的关键价值
3.1 提升网络性能
AI在语言、音频、图像处理等诸多领域的技术突破,体现了数据驱动的方法在多模态信息特征提取与问题求解上的性能优势。而随着AI技术的飞速发展,无线网络与AI的融合逐渐加深,利用AI技术提升无线网络性能也成为通信领域的研究热点。学界以及业界的研究表明,利用AI技术可以从空口、核心网智能化等多个维度对无线网络进行增强。特别是无线智能空口技术的设计,是提升网络性能与标准化推进中的关键方向。
- 网络性能提升:传统通信模块设计为基于模型驱动的设计方法,即依赖于高斯假设、线性假设等对通信系统进行简化建模,进而对调制解调、编解码、信道测量等模块进行设计。AI技术为基于数据驱动的设计方法,基于训练数据学习不同通信模块的输入输出映射关系,而未依赖于系统建模中的非实际假设。因此,结合数据驱动的AI技术实现对不同通信模块的性能增强,例如信道测量精度的提升、信号解调性能的提升等。最终,达成网络整体通信性能的增强,包括用户体验速率的提升以及通信覆盖能力的提升。
- 确定性业务保证:通信环境的时变特征导致通信链路 性能的时变性,因此如何在变化的通信环境下保证业务的确定性传输是无线网络一直以来的重要研究方向。基于数据驱动的AI 技术对通信环境的变化特征进行学习,并适应性调整通信策略,是实现确定性业务保证的重要技术方向。
基于AI的智能空口设计的演进,也促使了无线接入网(Radio Access Network,RAN)AI标准的讨论。基于AI的空口设计在3GPP R18中进行了研究项目的立项,研究内容包括基于AI的设计对无线网络整体框架的影响,以及一些典型用例的性能及标准化影响。在项目开展过程中定义了AI相关基础概念、基础仿真验证方法论、基站终端合作方式,并针对模型/功能注册、数据传输、模型传输、模型/功能选择、模型/功能激活去激活等生命周期管理过程展开研究。
3.2 提供优质AI服务
在无线网络中,基于AI的部署不仅能够显著提升网络性能,而且无线网络本身作为一个具有通信连接、分布式算力部署、分布式数据处理和AI算法能力的系统,为优质AI服务的广泛构建提供了广阔的可能性。这些服务包括AI图像增强、游戏、扩展现实(Extended Reality,XR)、沉浸式通信等强体验型业务,它们对网络性能有着极高的要求。
随着AI领域大模型的设计与应用成为发展趋势,大模型规模的成倍增长也带来了AI服务落地的重要挑战。为了应对这一挑战,分布式训练和推理的技术架构应运而生,被认为是下一代AI架构的基本特征。基站部署的边缘AI算力,结合端网融合,为无线网络中构建分布式训练和推理能力提供了可能。这种架构的优势在于,通过将AI计算需求从中心云服务器卸载到更接近用户的网络设备,可以有效优化AI服务的延时和能耗,从而提升用户体验。
进一步地,无线网络的数据处理能力随着服务的扩展变得更加丰富,能够高效支持端到端的数据采集、传输、存储和共享。这与无线网络中的分布式训练和推理能力深度融合,支持更大规模、更高智能的模型优化、训练和推理。然而,如何将数据高效、安全地提供给网络内部功能或网络外部功能,依然是一个需要深入研究的课题。
展望未来,网络无处不在的边缘计算能力将为AI服务提供强大的支持。借助网络集成的通信、感知和计算的平台优势,我们可以开辟网络参与AI服务的新型市场空间,为AI时代的繁荣提供强劲动力。具体而言,RAN在传输、协同、感知方面具有天然优势,基于“通算融合、感算融合”的技术路线,实现AI服务的低时延、高智能、高覆盖、低功耗的业务需求,满足未来AI业务的爆炸性增长的需求。
4. 5.5G AI的应用案例
4.1 场景用例分析
4.1.1 基于通用人工智能终端的AIGC应用
AIGC的多模态处理能力可以大幅提升生产效率并降低原本繁杂的人力劳工成本。AIGC作为当今最火爆的通用人工智能(Artificial General Intelligence,AGI)类应用之一,正在逐步改变我们创造和消费内容的方式。本节从5.5G网络的视角,选取电商直播、云游戏和视频通话三个场景来具体说明AIGC的能力和作用。
- 电商直播:AIGC可以用于生成吸引人的直播内容,包括自动生成产品描述、回答常见问题,甚至创建虚拟主播进行24/7的不间断直播。通过分析观众的互动和反馈,AIGC技术能够实时调整直播内容,提高用户参与度和购买转化率。自动化内容生成不仅节省了商家的人力资源,还提供了更加个性化和多样化的购物体验。
- 云游戏:AIGC在云游戏服务中提供个性化的游戏推荐和动态生成的游戏内容。它可以根据玩家的游戏历史和偏好,生成定制化的游戏关卡或任务,例如定制化多样化的NPC设计,为用户带来独特的游戏体验,增加游戏的多样性和趣味性。AIGC进一步使能AI对战,为追求更好竞技性的玩家提供游戏性乐趣。
- 视频通话:AIGC可以用于改善通话质量,提供实时的背景替换、语音增强和情感分析等功能。通过分析通话内容,AIGC能够自动生成会议摘要、关键词标签或情感反馈,帮助用户更好地理解和回顾通话内容。这使得视频通话变得更加智能和高效,特别是在远程工作和在线协作的场景中。
AIGC的核心优势在于其高度的自动化和智能化。通过深度学习模型,AIGC能够分析大量数据,学习人类的创作习惯和风格,然后独立生成高质量的内容。无论是撰写新闻报道、编写故事情节、设计视觉艺术作品,还是制作音乐和视频,AIGC都能够以其独特的视角和创意,提供令人耳目一新的作品。
此外,AIGC的可定制性为用户提供了极大的灵活性,可以根据需求设定不同的参数和条件,指导AIGC生成特定主题、风格或情感的内容。这种定制化服务在广告、市场营销和娱乐产业中尤为受欢迎。创新性是AIGC的另一大亮点,它不受限于传统的思维模式和创作边界,能够探索未知领域,创造出前所未有的内容形式,为艺术创作、科学研究和教育领域带来新的视野,激发无限的想象力和创造力。
随着技术的不断进步,我们可以期待AIGC在未来将带来更多令人激动的应用和成果。例如,苹果在2024年WWDC全球开发者大会展示的Apple Intelligence,接入GPT-4o赋能iOS,将Siri完全改造成“终极虚拟助手”,并准备将其开发为“最强大的杀手级AI应用程序”。通过on-device处理+私有云计算的端云协同实现个性化交互、个人化智能,这将成为iPhone16及后续机型的标配。而AGI终端的on-device推理和on-device边缘训练能力也将消耗流量的主体从人类扩展到机器,这将会对通信管道提出更快且更可靠的要求。运营商ToC的下一个超级应用,或许就是AIGC。
4.1.2 基于机器人的具身智能应用
随着AI技术的快速发展,智能机器人已经从科幻小说中走进现实生活,它们在工业、医疗、服务业、家庭等多个领域展现出巨大的潜力和价值。具身智能,作为AI领域的一个新趋势,指的是将智能系统嵌入具有实体形态的机器中,使它们能够直接与环境进行互动。这种智能的实现依赖于多学科的融合,包括机械工程、电子学、计算机科学和认知科学等,通过这些学科的交叉,智能系统能够学习如何适应环境,优化行为,并在复杂场景中做出决策。
GPT-4o等先进的AI模型实现了文本、音频和图像的多模态交互,并具备了一定的情感解读能力。但具身智能的关键在于,智能系统能够与物理世界产生互动,这标志着AI从依赖人工提供Prompt的阶段,走向了更加自主和智能化的形态。这些智能载体可以是机器人、无人机、无人车或其他形式的自动化设备,它们通过集成的传感器网络来感知外界,并将感知数据转化为对环境的理解和响应。
在实际应用中,具身智能展现出了广泛的潜力。无论是在工业自动化中提高生产效率,还是在服务行业中提供更加个性化的客户体验,或是在探索未知领域中执行高风险任务,具身智能都扮演着越来越重要的角色。随着AGI产业的蓬勃发展和大模型技术的百花齐放,计算机视觉、计算机图形学、自然语言处理、认知科学等技术的成熟,具身智能正快速从理论走向实践,从实验室走向日常生活。
面向5.5G+时代,ToC的个人/家庭助理型具身智能机器人将应用在如取快递、帮忙家庭采购、辅助看护等一系列场景,其中典型应用场景包括:
- 陪伴机器人:具身智能在家庭环境中的一个典型应用就是陪伴机器人。它们不仅能与人类进行对话,还能通过面部表情、语音语调、身体语言等识别用户的情绪状态,理解和回应人类的情感和需求。对于老年人,陪伴机器人可以监测健康状态,提醒用药或在紧急情况下提供帮助。对于儿童,它们可以提供教育内容,辅助学习,同时提供游戏、音乐、故事讲述等娱乐内容,成为儿童成长的良师益友。
- 快递运输机器人:在物流和快递行业中扮演着越来越重要的角色。这些机器人利用传感器信息和地图数据进行导航,避开障碍物,规划最佳路径,提高配送效率,降低物流成本,为用户提供便捷快速的服务体验。
5.5G网络的高速度、低延迟和高可靠性将赋能具身智能终端进行更精确的环境感知,并为室内外机器人应用提供高可靠的端到端确定性时延服务。这将为人类社会带来深远的影响,开启一个更加智能化和个性化的新时代。
4.2 关键需求与挑战
随着AI技术的不断进步,AIGC和智能机器人的应用领域不断拓展,对无线网络提出了新的诉求和挑战,以支持更丰富、更复杂的内容生成和交互体验。
4.2.1 AIGC应用的需求与挑战
AIGC技术对5.5G网络传输具有低时延的严格要求,尤其是那些需要实时交互的应用场景,如在线游戏、虚拟现实、远程控制等。低时延能够确保内容的实时生成和交互,从而显著提升用户体验。以虚拟直播购物为例,从用户发出请求到内容呈现的整体延迟需控制在70~100ms范围内。进一步细分,空口的单向时延需达到5~10ms的量级。
AIGC应用可能涉及大量数据的传输,包括高清图像、视频流和复杂的模型参数。因此,高带宽网络对于支持这些数据的快速传输至关重要,以满足AIGC对数据处理的需求。例如,1080p视频的典型上传码率在5~8Mbps,而AIGC生成内容的下行速率可能达到百兆级别。此外,无线网络还需要支持多模态数据的高效传输,包括文本、图像、音频和视频,并为AIGC应用提供差异化的服务质量保证,确保关键任务应用获得必要的网络资源。
4.2.2 具身智能的需求与挑战
智能机器人,得益于AI技术尤其是LLM的快速迭代,日益变得聪明,能够快速、可靠地在非结构化环境中执行任务。然而,非结构化环境的不确定性和任务的多样性也带来了一系列挑战。
首先,如果所有计算都在机器人本体进行,将需要较高的计算能力和相应的功耗。但轻量化设计是智能机器人在现实环境中工作的重要要求,限制了它们无法配备大量的CPU/GPU单元和大容量电池。其次,机器人本体的感知信息相对受限,对于视野之外的目标物体,仅依靠自身的感官信息可能导致任务成功率降低或任务完成时间延长。
为解决这些问题,计算卸载至网络成为关键解决方案。机器人本体传感器收集的多模态数据,连同任务指令一起传输到网络,网络执行推理生成最终输出,如目标检测、路径规划等,再发送回机器人执行。此外,网络的优越感知能力可以提供综合的环境信息,辅助机器人进行任务执行的推理,如路径规划。
在这些应用场景中,端到端推理时延应控制在200ms以内,推理准确率应不低于90%。同时,网络需要保证能够满足这些AI服务时延和准确率要求的智能机器人数量,每个小区至少支持30个智能机器人的稳定运行。
5 适用于5.5G AI的关键技术
5.1 适用于5.5G AI的关键技术
以香农信息论为基础,无线空口传输技术自20世纪五六十年代开始经历了长久的发展,衍生出调制解调技术、导频与信道估计技术、信道测量技术、波形技术等各个细分领域,并成功在2G到5G蜂窝网商用通信系统中获得了广泛应用。
AI/机器学习(Machine Learning,ML)的发展也同样经历了长时间的积累和沉淀。1954年图灵提出了著名的图灵测试,随后在1956年的达特茅斯会议上“AI”的概念被首次提出,之后AI经历了两轮技术发展周期。2006年之后,以深度学习算法和大型数据集为新的切入点,第三次AI发展浪潮快速席卷了各个领域。
将AI技术与5.5G结合,利用AI技术提升网络性能,是一种连接通信理论和AI方法的跨领域技术。通过两个领域在数学模型、系统架构、算法设计的有效结合和扩展,为无线通信网络打造智能化内核,赋予更优的传输性能、更高的运行和维护效率、量身定制式的用户体验。本节将从AI星座设计、AI灵活导频、AI高精度信道测量和AI覆盖增强波形等方面介绍AI提升网络性能的关键技术。
5.1.1 AI星座设计
星座调制是一种数字调制技术,是将信息bit承载到载波信号上,调制后的信号可以通过星座图形象地表示在二维平面上。现有无线通信系统中通常使用正交幅度调制(Quadrature Amplitude Modulation,QAM),即在I路和Q路两个正交载波上进行幅度调制的调制方式。QAM调制根据星座图中星座点的数量可具体细分为N-QAM,N为QAM调制的阶数,即每个调制符号能够承载log2N个bit的信息。通常情况下,I/Q两路正交载波上幅度调制的候选集合相同,因此N一般为2的偶数次幂,即16QAM、64QAM、256QAM、1024QAM等,如图1所示。

图1 16QAM、64QAM、256QAM星座图
QAM是一种规则的调制技术,即每个星座点与它对应的信息bit之间的关系都可以通过同一个公式表示,例如16QAM的星座点与4bit之间的对应关系可表示为:
$$\mathrm{s}=\frac{1}{\sqrt{10}}\left(\left(1-2 b_{1}\right)\left(2-\left(1-2 b_{3}\right)\right)+1 j *\left(1-2 b_{2}\right)\left(2-\left(1-2 b_{4}\right)\right)\right)$$
这使得QAM调制和解调在实现上比较简单。但是,这种规则性也导致它在性能上并非最优的调制方式。在AWGN信道下,理论上星座图越接近高斯分布,性能越逼近香农信道容量。QAM调制的星座图显然不是高斯分布,因此与香农信道容量存在一定差距,且随着阶数的增加,差距越来越大,如图2所示。

图2 QAM调制的信道容量
传统非规则星座调制可以分为几何成型和概率成型两种。几何成型是通过改变星座图中星座点的位置坐标,使其趋于服从高斯状分布;概率成型是不改变星座图几何形状(如仍然是QAM星座图),但改变发送信号星座点的出现概率,使其接近高斯分布。
几何成型和概率成型都是通过理论的方式改变星座图的分布,使其更接近高斯分布。但实际上,考虑到非理想的接收机,高斯分布也可能不是最优的星座图分布;考虑到不同的信道条件(如信噪比等),不同情况下最优的星座图分布可能也不相同,这就导致很难从理论上给出最优的星座设计。
AI星座设计则可以根据具体的信道条件通过端到端训练的方式,找到最适配目标信道条件的最优星座设计。相比于QAM调制、几何成型和概率成型,AI星座设计也更为灵活。如图3所示,在AWGN信道下,可以通过端到端的方式,联合训练星座图的几何成型、bit映射和对应的解调器,使其性能逼近香农信道容量。在发送端,AI模型输出星座图,包括该星座图中所有星座点(调制符号)的位置(I/Q两路的取值),bit映射通过星座点的顺序体现,例如对于4阶星座图,bit00对应第1个星座点,bit01对应第2个星座点,以此类推。在接收端,AI模型输入叠加了噪声的调制符号,输出为每个bit的对数似然比(Log-Likelihood Ratio,LLR)。损失函数可以用二元交叉熵(Binary Cross Entropy,BCE)函数,使得AI解调器输出的LLR逼近发送的信息bit。经过信道均衡模块后,信道和多用户干扰的影响已经被大部分移除,对于解调器来说,可以近似认为经历了AWGN信道,因此,在fading信道和多用户场景,都可以使用AWGN信道训练得到的星座。

图3 AI星座设计训练示意图
图4所示为AI设计的两个具体的星座图示例,可以看出,AI星座图是一种非规则的星座图。虽然从星座图分布上,AI星座相比于QAM更接近高斯分布,但与传统几何成型相比,其星座图分布也更为灵活,更容易适应各种信道条件。

图4 AI星座设计示意图
5.1.2 AI灵活导频
5G系统中存在许多作用不同的参考信号,其中解调参考信号(Demodulation Reference Signal, DMRS)是用于数据解调的参考信号,即可以利用DMRS估计数据所占用的时频资源的信道响应。信道估计的精确度和DMRS的密度/开销之间存在一个折中关系。如果信道表现出较为严重的频率选择性(即信道在频域变化较大),则应增加频域内的DMRS密度。类似地,如果信道在时域变化较快,则需要在时域上占用更多资源来部署参考信号。在确定时频域的DMRS密度后,我们需要进一步考虑DMRS在时频资源块中的位置。例如,在信道平稳的条件下,为了减小插值误差和降低实现复杂度,可以采用在频率和时域上均匀地分配DMRS信号。由于DMRS本身不传输任何对用户有用的数据信号,因此需要以适当的密度分配DMRS以最大化吞吐量。
现有协议以及前述方案中DMRS与数据资源仍然是正交分配时频资源的,虽然保证了信道估计性能,但是需要预留较多的资源给DMRS(尤其在移动性场景中),由此引发信道估计性能与数据可用资源之间的矛盾。进一步地,通过AI的手段还能实现更加灵活的DMRS设计,通过将DMRS与数据叠加的传输方式:
- 打开了更大的优化空间,释放了DMRS资源,使能极限资源利用率。
- 突破对正交DMRS的依赖,打破DMRS端口数限制。
- 引入AI来完成叠加传输模式下数据与DMRS间的功率分配以及接收机(利用AI融合多个收端模块,至少包括信道估计与均衡)的联合设计也能有效解决复杂度的问题。
- 在所有可用时频资源上覆盖DMRS,通过功率分配形成非规则的DMRS图样也能提高系统对通信环境的适配性。
具体地,每个资源粒子(Resource Element,RE)既承载调制数据符号又承载参考信号,并且仍然需要保证功率归一。图5给出水印导频传输模式下单个资源块中每个RE上导频与数据符号的形态,其中蓝色代表数据符号占用的功率比例,黄色代表导频符号占用的功率比例。收端通过相对应的AI接收机,可以对数据叠加导频进行信道估计和数据解调。
针对上行场景,AI是部署在基站端;针对下行场景则是部署在UE端。功率分配因子是通过AI训练得到的,基站可以根据配对流数分配功率。承载的导频序列可以复用现有标准中的序列生成方式。

图5 数据叠加导频模式下资源块中数据与导频符号的传输形式
5.1.3 面向时分双工的高精度测量
为实现无线网络的覆盖提升与性能提升,天线规模的扩大不可避免。但是,天线规模的增加导致高精度信道测量所需的空口资源占用显著提升。如何在有限的空口占用下,实现大规模MIMO系统的高精度信道测量成为5.5G时分双工(Time Division Duplex,TDD)系统的关键挑战。
实现有限空口占用下的高精度信道测量的关键点在于,如何有效利用基于不同参考信号获取的有限信道信息,恢复全维度信道信息。例如,UE根据下行参考信号获取下行信道信息,基站根据上行参考信号获取上行信道信息,但是来源于不同参考信号的信道信息其实都源于相同的通信环境,因此可视为对相同通信环境的不同视角或不同模态的测量。

图6 多模态信息融合的 AI 技术使能通信环境和通信信道的高精度恢复
利用多模态信息融合的AI技术,可实现对来源于不同参考信号获取的信道信息的有效融合,从而实现对通信环境和通信信道的高精度恢复。
5.1.4 AI覆盖增强波形
目前NR系统上行有两种波形,分别是多载波正交频分复用(Orthogonal Frequency Division Multiplexing,OFDM)波形和单载波OFDM波形,其中单载波OFDM波形通过在传统的OFDM处理过程之前增加一个额外的离散傅立叶变换(Discrete Fourier Transform,DFT)处理,将其转变为单载波,因此也成为离散傅里叶-扩频-正交频分复用(DFT-Spread OFDM,DFT-s-OFDM)波形。由于多载波OFDM波形的发送信号是由多个子载波的信号叠加而成,有些时刻多个子载波的信号同向叠加形成很高的峰值,因此单载波OFDM波形的峰均功率比(Peak to Average Power Ratio,PAPR)较低,即有更好的覆盖性能。但对于极致深度覆盖的用户而言(比如小区边缘用户或经过多次建筑物穿损的用户),DFT-s-OFDM波形的PAPR仍然较高,因此需要针对极致深度覆盖的用户设计比DFT-s-OFDM波形覆盖性能更好的新波形。
传统降低OFDM波形PAPR的技术主要包括滤波器技术和削波技术等。滤波器技术是通过设计适当的频域滤波器,改变时域波形,降低PAPR;削波技术是通过将超出门限的信号按比例缩小,从而降低PAPR。这些技术均能够对OFDM波形的PAPR进行一定程度的优化,但代价是会损失一些数据传输吞吐率。
AI覆盖波形设计是通过AI训练的方式,优化波形的覆盖性能。AI覆盖波形设计相比于传统波形降PAPR技术,主要的优势在于可以通过多目标联合优化,实现覆盖和吞吐的折中,在提升覆盖同时减少吞吐的损失。
例如,可以通过AI实现子载波预留技术。在实际传输带宽外,预留若干子载波,通过AI训练优化该子载波上的信号,改变波形形状,降低PAPR,如图7所示。AI模型的输入为原始数据符号的时域信号,输出为预留子载波上的信号。为了避免预留子载波上功率的浪费,在训练时可以约束子载波的功率。

图7 AI子载波预留设计
5.2 提供优质AI服务的关键技术
5.2.1 提供优质AI服务的关键技术
随着大模型的参数规模逐渐增大,训练和推理需求的硬件水平也逐渐提升,AI模型不断地被推至边缘。基站作为最靠近终端的生态位,且能实时感知信道变化,可充分利用通算资源的深度耦合优化AI业务推理性能。

图8 基于通算联合的空口资源动态调度
针对边缘AI分布式推理优化,目前主要有四类技术:
- 稀疏量化、结构冻结类:主要通过减少计算和内存使用来实现推理优化。例如,量化将模型参数从高精度浮点数(如32bit)压缩到低精度整数(如8bit)或定点类型,从而减少模型大小和计算量。冻结即将模型中不需要更新的部分(例如预训练的层)冻结,使其不再参与训练和推理,从而减少模型大小和计算量。稀疏化是指通过去除模型中的冗余连接或参数,降低模型的复杂度,从而减少计算量和存储空间。常见的稀疏化方法包括权重剪枝(Weight Pruning)和结构化稀疏化(Structured Sparsification)。
- 流水线串行类:主要将模型的不同层分配到不同的边缘设备上,通过串行执行的方式进行推理。例如,将图像预处理层分配到低功耗设备,将卷积层分配到更高性能的设备,最终将分类层分配到基站/云端。这种方法可以利用不同设备的优势,提高推理效率。
- 张量并行类:即将模型的计算任务分配到多个边缘设备上,通过并行执行的方式进行推理。例如,将一个大规模的矩阵乘法操作分解成多个子操作,分别分配到不同的设备上执行,然后将结果进行整合。这种方法可以充分利用多核处理器的并行计算能力,加速模型推理。
- 批处理类:将多个推理请求进行合并,一次性进行处理,从而提高推理效率。例如,将多个用户的图像识别请求合并成一个批次,一起进行推理,然后将结果分别返回给用户。这种方法可以有效地降低推理延迟,提高资源利用率。
从空口的角度分析,如何基于通信资源和计算资源的动态变化,从而实现动态稀疏化、动态流水线串行、动态张量并行、动态批处理,是当前的关键挑战。基于基站通算融合的独特优势,设计端网动态算力协同方案,开辟未来网络参与AI计算市场的新空间。
5.2.2 检索增强
在快速发展的无线通信世界中,终端设备和接入网络设备常常受限于它们的处理器、存储和计算能力。这些限制成为了大规模模型训练的绊脚石。然而,分布式训练技术的出现,为这一难题提供了优雅的解决方案。通过这种技术,我们能够跨多个设备共享计算任务,不仅减轻了单个设备的负担,还使得每个设备能够利用其独特的数据信息。
面向无线通信系统的分布式训练,涵盖了几项关键技术,它们共同构成了这一领域的技术支柱:
- 模型并行方案:这是解决大型模型训练难题的一种有效手段。面对单一设备无法承载的庞大模型参数,模型并行通过将模型拆分为多个部分,并将这些部分分布到不同的计算设备上,从而降低了对单个设备内存的需求,并显著提升了计算效率。在这一过程中,模型分割是核心步骤,它可以根据模型的层级结构或者结合终端、接入网设备以及云端服务器的功能特性来进行。
- 分布式知识库的构建:这是另一项关键技术。考虑到不同终端和接入网设备所能获取的信息存在差异,构建一个分布式知识库变得尤为重要。这一过程包括数据的收集与预处理,以及知识表示的设计。例如,基站具备全局感知能力,它需要从多样化的环境中收集数据,并对这些数据进行统一的预处理,以确保数据格式和质量的一致性。随后,我们需要确定如何在知识库中表示这些知识,可能涉及特征表示、模型参数或中间结果的表达方式。
如图9示例,基站负责收集环境的点云数据,并构建起一个点云知识库。这一知识库随后被共享至LLM,以供进一步分析和使用。机器人在执行任务时,会实时收集环境信息,并将这些信息与导航请求一同发送至LLM。LLM结合基站提供的点云数据和机器人采集的视频信息,进行综合分析,以制定出精确的导航路径。最终,LLM将制定好的导航规划结果发送回机器人,指导其完成导航任务。

图9 分布式知识库构建示意图
针对室内场景中的机器人导航规划任务,基站所提供的全局环境点云数据的比例是影响任务成功率的一个关键因素。如图10可以清晰地看到,随着基站所提供的点云数据量比例增加,机器人在室内执行导航规划任务的成功率也随之提升。这一现象表明,详尽的环境数据对于提高机器人导航的准确性和可靠性至关重要。具体而言,点云数据的丰富性直接影响大模型对环境的认知深度,进而优化其路径规划算法,使得机器人能够更加高效地完成导航任务。

图10 基站点云辅助机器人导航规划成功率
- 高精度小模型设计:它是提升整体系统性能的重要技术。结合终端基站和云端服务器的特性,设计多个小模型,并通过高质量的标注数据进行训练。在训练过程中,可以采用迁移学习等先进技术,以提高模型的学习效率。除此之外,还有小模型猜测和大模型校验技术,小模型的猜测结果需要被转换成适合大模型输入的格式,例如向量或编码形式。最后,大模型将根据小模型的结果进行进一步的校验和调整,以确保最终输出的准确性。
通过这些技术的综合应用,无线通信系统中的分布式训练不仅能够克服设备能力的局限,还能够充分利用每个设备的优势,实现更加高效和精准的模型训练。
5.2.3 特征流通信
特征流通信是一种新的通信范式,这种技术的核心在于,它不仅仅关注数据的比特流,而是进一步分析和理解这些数据所代表的实际意义。特征流通信深入理解传输数据的语义内容,有助于接收端识别最有价值的信息,即对于获取发送端意图而言最重要的信息,以此来提高通信效率和准确性。
语义感知的空口通信技术将语义信息的理解和处理融入通信过程,根据语义特征来优化传输策略,具体的技术可以体现在两个方面:(1)特征流的空口差异化传输;(2)特征流容错的空口通信。下文分别介绍这两个技术方向。
- 特征流的空口差异化传输
在传统的通信系统中,数据包的传输和接收通常是基于信号强度和错误率等技术指标。然而,特征流通信通过引入语义层面的理解,能够更加智能地处理数据。例如,若某个数据包包含较为重要的信息,在进行空口传输时,可以提高该数据包的传输优先级,确保其快速且可靠地到达目的地。
此外,特征流通信还能够根据不同特征流对接收端语义恢复的贡献度来动态调整编码和调制策略。
以图11所示的一种语义引导的特征流空口差异化传输为例,信源侧的数据通过语义转化切分成多个特征流,这些特征流在传输前根据其不同语义重要性的进行重要性标签映射。在信道编码过程中,根据特征流的重要性采取不同的信道编码策略。例如,针对能够对接收端语义恢复过程贡献度较大的特征流,分配更多的传输资源或采取更可靠的调制编码策略等,以此保证整个语义引导的特征流空口差异化传输系统可以根据语义的重要性来选择最合适的传输方式,从而在保证通信质量的同时,也优化了频谱资源的使用。

图11 语义引导的特征流空口差异化传输示意图

图12 特征流容错的空口通信示意图
- 特征流容错的空口通信
特征流容错的空口通信可以抵抗无线信道不稳定性和可能发生的错误。这种通信方式可以在部分特征信息受损或丢失的情况下,恢复出原始信息的语义内容。如图12所示,对于传统通信方法主要关注于比特流的正确传输,若部分比特传输出错,在接收端进行画面恢复时会无法恢复发送端所传输的意图或信息,则在图12显示为对应出错的比特呈现马赛克的状态,整个画面则出现花屏。但对于利用了特征流容错的空口通信,即使在传输过程中比特传输出现错误,特征流通信在接收端仍然能够恢复出或推断出发送端的意图或信息,则在图12中显示为即便出现误码,画面出错区域仍可较好恢复。因此,利用特征流的容错性,可以提高空口通信的容忍度和恢复能力。
6 总结与展望
本文深入探讨了5.5G时代AI的演进趋势、关键技术及其在多个领域的应用前景。从AI模型的发展历史,到算力和数据的飞速进步,再到AI在5.5G时代的关键价值和应用案例,本文全面展示了5.5G AI技术面临的机遇与挑战。特别是AI在提升网络性能、提供优质AI服务以及具身智能和AIGC应用中的关键作用,突显了AI技术在未来通信和网络发展中的核心地位。
展望未来,5.5G与AI的深度融合预示着一个智能化新时代的到来。随着技术的不断进步,AI将在更多领域展现其潜力,特别是在自然语言处理、图像和视频生成以及多模态交互等方面。AI技术的进一步发展将带来更加个性化和智能化的服务,改善用户体验,并为各行各业提供创新解决方案。同时,AI的算力和数据需求将持续推动硬件和网络基础设施的升级,为实现更高效的分布式训练和推理提供支持。此外,AI在提升无线网络性能方面的应用,如AI星座设计、灵活导频、高精度信道测量和覆盖增强波形等关键技术,将进一步优化网络资源的使用,提高通信效率。
尽管AI技术前景广阔,但同时也面临着不少挑战。例如:
- 网络能力的新突破:5.5G技术的持续演进将推动网络速度、连接密度和时延性能的进一步提升。
- 网络运维的新模式:智能化和自动化工具将改变网络的运维方式,提高效率和准确性。
- 智能化服务的普及:AI技术将更广泛地应用于各行各业,极大提升生产效率和用户体验。
- 技术创新与融合:边缘计算、网络切片等新技术将与AI深度融合,为特定应用场景提供定制化服务。
- 数据安全与隐私保护:面对AI处理数据量的增加,确保数据安全和用户隐私的技术和法规将得到加强。
- AI的可解释性:提高AI决策的透明度和可解释性,确保系统的公正性和安全性。
总之,5.5G时代的AI正站在一个新的起点上,它的发展将深刻影响未来的社会结构和人类生活。