前沿探索
面向深度学习的联合消息传递与自编码器
本文提出基于消息传递算法(Message Passing Algorithm,MPA),实现一种灵活的自编码器收发机,可以为不同使用场景提供较好的泛化性能。
作者(均来自华为6G研究团队):葛屹群 1,史无限 1,王坚 2,李榕 2,童文 1
- 渥太华无线先进系统能力中心
- 无线技术实验室
1 引言
1.1 基于自编码器的全局收发机
在无线收发机设计中,深度神经网络(Deep Neural Network,DNN)的应用存在两种不同的范式,包括图1的逐块优化法和图2的全局优化法(也称“端到端优化法”)。
图1 基于自编码器的逐块收发机
图2 基于自编码器的全局收发机
自2017年以来,人们投入了大量精力研究基于自编码器(Autoencoder,AE)的全局收发机(下文将这种收发机称为“自编码器全局收发机”)。这是因为,研究人员在探索原生AI(Artificial Intelligence,人工智能)如何应用于无线通信的过程中,先观察到了基于自编码器进行逐块优化的潜在益处,进而自然而然地转向全局优化的研究。已经有许多高价值论文展开了关于自编码器全局收发机可行性的讨论,并对比其他深度神经网络结构与训练方法,对推理性能进行了基准测量。
经典的物理层收发机设定的通用传输目标是在接收机端进行可靠的信息重建。为处理各种敌对信道,需要通过参考信号来估计当前信道,并对估得的信道失真进行均衡。
与之相比,自编码器全局收发机则可以同时优化发射机和接收机的深度神经层,从而适应给定信道环境中的给定源及给定目标。具体来说,收发机会基于信息重建等给定目标,提取相关联的基本信息。如果目标比信息重建简单,需要提取的基本信息就比较少,能够节省传输资源。如果在给定信道环境中,收发机几乎可以把所有可能的无线信道实现场景学习到自身的神经元中,那么通过减少参考信号和控制消息开销,可以节省更多的传输资源,同时不影响误块率(Block Error Rate, BLER)性能。以上两种情形都非常重要,有助于无线系统实现更高的频谱效率。从图3可以看出,自编码器收发机综合考量了三种因素,即源分布、目标导向和信道环境。
图3 为提升频谱效率,需对源分布、目标和信道进行综合考量
此外,如果使用机器学习中数据驱动的学习方法,自编码器全局收发机还有助于实现收发机的最优设计流。
1.2 当前面临的问题
自编码器全局收发机也面临明显的技术障碍,其中以下三个问题较为关键。
问题一:基于随机梯度下降法,使用反向传播算法训练自编码器,需要一个或多个可微信道模型层,用于连接发射机的深度神经层和接收机的深度神经层,如图4所示。由于真实信道必须包含很多非线性分量(如数字或模拟的预失真与转换),又涉及上采样、下采样等不可微阶段,因此收发机深度神经层训练出来的模型是基于构造的信道而非真实信道。在真实信道场景下,这样得到的模型可能会在推理阶段带来性能损失。
图4 简化的可微信道模型层
问题二:如图5所示,所有隐藏层或中间层均根据输入信号的后验概率进行训练。在自编码器全局收发机中,接收机深度神经层的第一层是一个中间层,该中间层的输入信号易受当前信道失真的影响。这种影响会不可避免地渗透到接收机的所有深度神经层。如果信道变化的程度大到超出了训练期望,会导致接收机在推理阶段失效。
问题三:神经层之间缺乏可解释性,无法获知哪些神经元以及神经层之间的哪些连接会有效影响最终的学习准确度。 Goodfellow等人举了一个深度神经网络分类器的例子,虽然该分类器通过非噪声图像完成了良好的训练,但仍可能将带噪声的熊猫图像误判为长臂猿,如图6右侧所示。这个例子表明,基于深度神经网络的分类器进行最终决策时,很大程度上依赖于一些“关键路径”(指熊猫图像中的部分像素,也称为“局部特征”)。如果关键路径完好无损,就能做出正确的分类;如果关键路径受到干扰,则会做出错误的分类。同时,这种由噪声导致的分类误判,只是在存在加性随机噪声的前提下出现的偶发情况,这表明深度神经网络依赖于这样一种假设——即 “关键路径”经过噪声信道处理后仍然保持完好。深度神经网络易受加性随机噪声的影响,这对它在无线收发机设计中的应用几乎是致命打击。
1.3 分布外样本与泛化
更糟糕的是,针对这些问题的现有解决方案还面临许多阻碍,因为所提出的解决方案必须满足无线通信设备和基础设施的低能耗、低时延、低开销等实际要求。一方面,在动态环境中,自编码器收发机对自身进行累加、增强以及重训练的成本过高;另一方面,进行累加、增强和重训练的整个过程本身也违反了深度神经网络的“Once-for-All”策略——即一次学习、长期有效,进而无法很好地满足现实需要和能耗要求。
这三个问题的本质可以归结为同一个核心问题,即面临无线信道的随机变化时,深度神经网络的泛化性能太差。没有任何模型(即便是十分优越的信道模型)能够完全捕获无线电传播的所有可能场景,因此分布外(Out-of-Distribution, OOD)样本或离群点的处理是自编码器始终要面对的现实问题。
为解决这一问题,本文提出,可以调节自编码器收发机,使之适应真实世界中随机无线信道的变化。如果采用数据驱动方法,自编码器收发机框架在处理分布外样本时,就应该能具备足够的泛化性能。
图5 接收机中的深度神经层依赖于输入信号的后验概率
图6 自编码器全局收发机与带加性噪声的对抗攻击
原生AI包含训练与推理两个阶段。训练需要大量的原始数据样本,计算方式通常是离线的;而推理则采用在线方式直接操作真实世界的数据样本。
推理可以解释为插值或外推操作。由于外推的可靠性远不如插值,推理准确度就取决于真实数据样本的分布。图7中,如果真实数据样本(蓝色圆圈)处于训练数据样本(橙色圆圈)的插值区域内,那么自编码器收发机训练好以后,大概率能够正确处理该真实数据样本,如图7左侧所示;如果不在插值区域内,则收发机对离群数据样本推理的可靠性很低,如图7右侧“未建模的离群点”(蓝色)所示。
在无线场景中,离群点通常由信道的随机变化引起。在推理阶段,如果信道正在发生变化,偏离了训练阶段所使用的信道模型,这时离群点的问题表现得尤为突出。随着推理的进行,会出现更多的离群点,进而影响到接收信号的分布形状, Bengio就将深度学习泛化性能差的原因归咎于这一点。目前有一些补救方法,比如进行额外的训练,包括迁移训练、基于注意力的循环网络,或强化学习。然而,面对未来无线通信低能耗、低时延和低控制开销的要求,这些补救方法变得不切实际,缺乏可行性。
为实现自编码器全局收发机的可行性,我们的主要任务在于找到一种在推理阶段行之有效的实时方法,来解决离群点或分布外样本处理的问题。
本文提出一种方法,采用基于消息传递算法(Message Passing Algorithm,MPA)的预编码器层,实现了一种基于自编码器的全局收发机,从而能够在信道动态变化时提升泛化性能。第2节基于维度变换的核心思想,提出将降维层插入到自编码器框架中。第3节详细介绍训练过程,描述如何实现带 MPA功能的自编码器收发机。第4节介绍这种收发机的一些应用。最后,第5节对本文提出的方法进行总结。
2 深度MPA预编码器
本节以发射机中附加降维层为例,解释带MPA功能的预编码器如何工作,以及这种预编码器如何提升随机信道变化场景下的泛化性能。首先,将降维层附加到发射机的深度神经层,进行从L(前面的深度神经层所扩展的维数)到N(当前信道的自由度)的线性降维转换。我们假设,有当前N自由度的信道测量结果可用于发射机。实践中是通过来自接收机的频繁信道反馈或上下行信道互易来实现这种测量。附加给发射机的降维层尤其适用于下行链路,因为在下行链路中,终端接收机的深度神经层需要尽量长时间地保持固定不变。
为处理信道变化产生的离群点,可以通过MPA对线性降维变换进行调整,从而增强推理阶段的泛化性能。降维层系数的调整是一种迭代算法,包含从功能节点传递到可变节点的前向消息,以及从可变节点传递到功能节点的反向消息。在解释降维层的迭代调整过程之前,我们先介绍两种广泛使用的原生AI技术——支持向量机(Support Vector Machine,SVM)和注意力深度神经网络。
表1给出了本文使用的关键参数,便于我们后续介绍这种收发机的工作机制。
表1 系统参数
图7 离群数据样本会降低推理准确度
2.1 前向迭代(语调)与非线性支持向量机
支持向量机是一种用于数据分类、回归和离群检测的有监督机器学习模型。通常,支持向量机模型由非线性维度扩展函数φ(∙)、线性组合函数f(x)=w∙φ(x) + b和二分类函数sign(∙)组成,其中x为输入数据,w为权重系数向量,b为偏置向量,如图8所示。支持向量机的目标是对数据样本进行分类,从而找到最大间隔超平面,如图9所示。
图8 用于二分类的非线性支持向量机
图9 支持向量机函数定义一个超平面,实现用户分类
从几何上讲,\(w\cdot \varphi (\vec{x})+\vec{b}\) 形为一个N维超平面。超平面的好坏可以通过间隔来衡量。在图9的示例中,右侧的超平面比左侧的要好,因为右侧的超平面具有更大的间隔。
支持向量机优化的数学描述如下:
\(\left\langle\boldsymbol{w}^{*}, \vec{b}^{*}\right\rangle=\underbrace{\operatorname{argmin}}_{w, \vec{b}}\left(l(\vec{y}, \hat{\vec{y}})+\frac{\|\boldsymbol{w}\|^{2}}{2}\right)\),
式中,\(l\left ( \vec{y},\widehat{\vec{y}} \right )\)是给定的损失测量函数(如深度神经网络的⇀训练目标)。有几种方法可以逼近最优解\(\left \langle \mathbf{w*},\vec{b}* \right \rangle\),比如直接使用最小方差法,或采用随机梯度下降法。支持向量机是深度神经网络的前身。
非线性支持向量机的研究得出三项结论:
- 先进行非线性维度扩展变换φ(∙),再进行线性降维变换 \(\mathbf{w}\cdot \varphi (\vec{x})+\vec{b}\) ,可以提高分类准确度,为实现带MPA的自编码器全局收发机奠定了基础,如图10所示。
- 线性降维变换 \(\mathbf{w}\cdot \varphi (\vec{x})+\vec{b}\) 会调节用于类别区分的超平面,这一变换显示了前向降维层的运作机制。
- 超平面(\(\mathbf{w}\cdot \varphi (\vec{x})+\vec{b}\))用固定的φ(∙)和sign(∙)进行调节,类似一种串联式的训练方案,带有降维层和其他深度神经层,在推理阶段具备可调节性,如第3.1节的图17所示。
图10 带MPA的自编码器与非线性支持向量机
图11 基于支持向量机的降维层
因此,在训练和推理阶段,降维层都持续调整中间超平面,这有助于接收机深度神经层做出最终分类。在无线场景中,我们必须根据信道的当前变化来调整超平面。
利用支持向量机进行维度变换,我们可以将发射机输出的维度L变换为通信信道测量的维度N。图11展示了支持向量机的详细前向迭代过程。该过程中,降维层的输入是一个L维的特征矩阵 \(F=\left [ f_{1}, f_{2},..., f_{L}\right ]\),\(f_{i}\) 表示第i个K维输入特征向量。降维层的输出是N维特征矩阵 \(T=\left [ t_{1}, t_{2},..., t_{N}\right ]\),\(t_{i}\) 表示第i个K维输出特征向量。当输出特征向量经由通信信道传递时,接收的信号表示为:
\(\boldsymbol{r}_{\mathrm{i}}=\sum_{l=1}^{L} \alpha _{l, i} \cdot \boldsymbol{f}_{l} \cdot \boldsymbol{h}_{i}+\boldsymbol{n}_{i}, i=1, \ldots, N\),
式中,\( \alpha _{l,i} \) 是l 与i 两个神经元间连接的系数。
图12 超平面随时间推移而调整
综上所述,我们可以得出结论,前向子迭代的目的是在训练和推理两个阶段,都针对给定发射机的特征矩阵F、信道状态信息H、噪声向量N和接收信号R,持续微调支持向量机模型的超平面,如图12所示。
2.2 反向迭代与注意力深度神经网络
如前文讨论,降维层的训练需采取“独立模式”,而不使用接收机反向传播这种“连接模式”。从这个角度出发,我们考虑在反向子迭代中使用注意力深度神经网络。
注意力深度神经网络是测量不同维度间两个特征相似度的一种有效方法。图13描述了这种网络的结构。该网络的输入是接收的信号R。注意力的运算就是计算每个\( r_{i} \)与注意力系数\(c_{l} \) 的内积,即 \(\left \langle r_{i},c_{l} \right \rangle\)。这个内积表示信号\( r_{i} \)与注意力系数\( c_{l}\)的相似度,由Softmax层归一化为:
\( \alpha _{l, i}=\frac{\mathrm{e}^{\left\langle r_{i}, c_{l}\right\rangle}}{\sum_{n=1}^{N} \mathrm{e}^{\left\langle r_{n}, c_{l}\right\rangle}}, i=1,...N,\)
接着,我们将注意力深度神经网络的输出表示为:
\( z_{l}=\sum_{i=1}^{N} \alpha _{l, i} \cdot \boldsymbol{r}_{i}, l=1, \ldots, L\).
应当注意,注意力的数量小于接收信号的数量,即L < N。注意力深度神经网络可以用于降维层的反向传播。具体而言,每个提取的特征向量\( f_{l} \)都可以用作注意力系数。于是,在反向子迭代中,系数 \( \alpha _{l,i} \) 可由下式给出:
\( \alpha _{l, i}=\frac{\mathrm{e}^{\left\langle r_{i}, f_{l}\right\rangle}}{\sum_{n=1}^{N} \mathrm{e}^{\left\langle r_{n}, f_{l}\right\rangle}}, i=1, \ldots, N, l=1, \ldots, L\).
这种网络可包含多个注意力,记为 \( c_{l}\), l=1,2,3,...,L。由此,深度神经网络可以生成一个L组合 \( z_{l}\), l=1,2,3,...,L。在实际的这种网络中,注意力的数量小于捕获特征的数量,即L < N,因为现实中无法同时保有数量过多的注意力。
图13 注意力深度神经网络的结构
图14 接收特征与被提取特征相关联,\( \alpha _{l,i} \)表示每个接收特征的权重
图15 独立式MPA迭代
在MPA层,我们可以借用上述方法来测量接收信号空间 \(\left [ r_{1}, r_{2},...,r_{N} \right ]\) 和提取特征空间 \(\left [ f_{1}, f_{2},...,f_{L} \right ]\) 之间的相似度。假设发射机的深度神经层经过了良好的训练,可以基于特定目标提取特征 \(\left [ f_{1}, f_{2},...,f_{L} \right ]\)。可以把一个特征\( f_{l} \) 当作一个注意力。在反向迭代中,我们就是用这种方式计算降维层的系数 (\( \alpha _{l,i} \) , l=1,2,...,L,i =1,2,3,...,N)。
由于 \( \alpha _{l,i} \) 给出了被提取特征\( f_{l} \) 与接收特征ri之间的相似度,因此也可以用来表示从被提取特征\( f_{l} \)转换为传递特征\(t_{i}\)时的缩放权重。
2.3 独立式MPA迭代
图15给出了MPA迭代的整体情况。左侧的前向部分等价于非线性支持向量机,右侧的反向部分等价于注意力深度神经网络。
MPA迭代是独立的,不依赖原始自编码器基于随机梯度下降的反向传播。这意味着,在MPA迭代其系数时,会假设发射机和接收机的其余深度神经层都被冻结,如图16所示。
图16 带MPA的自编码器全局收发机
3 全局串联学习
3.1 粗学习
插入降维层后,训练被划分为两个代理:其一是降维层的独立代理,其二是收发机深度神经层的反向传播。
两个训练代理串联工作,如图17所示:
- 串联阶段一,降维层被固定(图17左侧)。在前向语调过程中,降维层是线性可微的,因此可以反向传递梯度,通过反向传播的方式来训练深度神经层。
- 串联阶段二,深度神经层被固定(图17右侧)。降维层基于独立式MPA进行训练,类似于非线性支持向量机的训练。
串联阶段一和阶段二迭代进行,直至训练结果收敛。下页的算法1总结了具体过程。
图17 串联训练阶段
3.2 推理阶段自适应
由于降维层用独立模式训练,因此每次传输都可以调节降维层。在推理阶段,带MPA的自编码器全局收发机可以使发射机适应信道的变化,同时保持接收机不变。
图18左侧的自编码器全局收发机不带MPA功能,没有降维层。这种情况下,即使信道和(或)源分布发生改变,收发机也无法在推理阶段改变自身的神经元系数。收发机的性能表现取决于变化信道处于插值范围内的几率;如果信道超出插值范围,收发机就必须积累足够数量的新数据集,利用新数据集开始新的训练,或者针对部分深度神经层进行迁移学习。在快速变化的环境中,新的训练或迁移学习都不利于自编码器收发机的应用。
图18右侧的自编码器全局收发机带有MPA功能。基于 MPA,发射机会对每次传输持续调整降维层。由于降维层是收发机的中间层,它面向当前信道的系数更新可以显著增强泛化性能。此外,降维层不需要任何标签数据,可以通过真实世界的信道测量进行在线调整。下页的算法2总结了具体过程。
图18 自编码器收发机,左侧不带MPA,右侧带MPA。 MPA预编码器可以在线灵活调整,从而适应不同的信道条件。
3.3 带 MPA 的自编码器全局收发机之优势
降维层不仅可以对变化的信道进行自适应推理,还具备其他重要优势。
首先,为实现可微性,需要简化信道模型,但这种简化会损害自编码器收发机的性能。造成性能损害的原因在于,用来训练自编码器的信道模型是一种简化模型,而非真实模型。也就是说,训练阶段使用的简化信道模型与推理阶段处理的真实信道之间存在偏移,这种偏移带来了性能损失。如果偏移量增加到超出期望的程度,整个自编码器收发机将会失效。有两种补救方法可以缓解这种性能下降。第一种是利用强化学习,不间断地记录信道状态,并对策略DNN和(或)评估 DNN进行持续训练。不过,从维度的复杂程度上讲,强化学习对无线系统来说过于复杂,因为强化学习处理的维度实际上比AlphaGo围棋还要大得多。因此,基于强化学习的调整机制并不可行。第二种是利用生成对抗网络(Generative Adversary Network,GAN),将尽可能多的信道场景学习到一个大的深度神经网络模型中。然而,这是一种经验方法,无法证明该方法能够涵盖所有信道场景。
出于对上述问题的考虑,带MPA的自编码器采取不同的技术路径。在推理阶段,MPA会针对每次数据传输,调整当前信道测量函数中的降维层系数,因此自适应推理会在训练阶段使用一个粗信道模型,我们称之为“粗学习”。如果粗学习对训练和推理两个阶段模拟了相同或相似的信道模型,则很难证明粗学习的优势,不过这种优势可以在实际的现场测试中得到证明。
其次,带MPA的自编码器可以与基于生成对抗网络的信道模型联合工作。从经验来讲,大部分信道的实际条件依赖于用户位置和环境拓扑,比如高层建筑、山丘、道路等。参考文献提出利用条件生成对抗网络,对未知信道建模,并获得了良好的性能。我们可以利用该方法建立一个信道模型,为训练阶段提供良好的支持。
在推理阶段,我们建议依靠导频的信道估计、信道测量反馈或信道互易来获得最新的信道条件。众所周知,MPA还受益于稀疏性,能够较好地容忍偏置与偏移(这也是LDPC解码器可以有效工作的原因)。从这一角度来看,没有必要进行全维信道测量,只需测量部分维度,即使存在一定的估计误差,我们的方案在整体性能上仍具备较好的鲁棒性。另外,残差可以通过误差容忍度较高的接收深度神经层得到处理。由于在推理和训练阶段已经做好了降维层的调整,我们可以将降维层作为整个传输链的预编码器,因而不必在接收深度神经层再做训练。这样不但带来节能效益,而且对延长用户设备的电池寿命也是一种巨大的优势。
图19概括了我们这一方案的完整情况。在收发机算法架构方面,我们选用适当的MPA可调节式降维,不仅解决了信道输入的信息瓶颈问题,还在训练阶段使用随机梯度下降法时实现了梯度开销最小化。在训练阶段,我们可以使用已经生成的信道模型;采取的串联训练方案具体过程为,通过冻结的降维层反向传播梯度,再冻结自编码器层,最后迭代降维层。在推理阶段,先冻结自编码器层,再通过真实信道测量或反馈来迭代降维层。
图19 粗学习与自适应推理
4 未来方向
4.1 灵活的MPA使能方案
针对不同场景下的问题,我们可以把降维层灵活地插入到自编码器收发机中。
图20中,顶部表示一对一单用户通信,在该场景中,我们应用MPA方法设计了高阶调制、大规模MIMO、预失真等方案。这些设计在时变信道条件下取得了良好的结果。
MPA方法也适用于多用户通信场景。例如,在下行MU- MIMO场景中,我们可以对MPA层进行联合适配,如图20中部所示。
图20 可灵活插入的MPA层
在上行MU-MIMO场景中,每个用户发射机可以单独适配 MPA层,而基站接收机则可以在DNN接收机之前适配降维层,如图20底部所示。
在自编码器结构中,以深度学习的方式引入降维层,可以提升当前深度神经网络框架的泛化性能,也即增强分布外样本的一般化处理能力。
4.2 使用复杂信道模型进行训练
另一个研究方向是在训练阶段使用更为复杂的信道模型。这类研究通常以周围拓扑信息为输入,利用深度神经网络来生成信道模型,如图21所示。
图21 使用基于深度神经网络的信道模型进行训练
图22 在推理阶段,我们建议使用另一个深度神经网络来生成当前的环境参数
这种情况下,MPA迭代依然有效,因为可以把信道的推理 DNN看作一个非线性函数\( Ch\left ( \cdot ,enh;\vartheta _{ch} \right )\)。不过,如果基于深度神经网络的信道模型规模巨大,迭代推理的成本可能太高。因此,需要研究如何通过模型蒸馏来减小深度神经网络的规模。
推理阶段的环境参数可以是另一个深度神经网络输出的结果,该网络从当前的信道测量与反馈中推导出周围拓扑信息,如图22所示。
5 结语
本文通过引入MPA功能,解决了自编码器全局收发机面临随机信道变化时泛化性能差的基本问题。在推理阶段,MPA可以使自编码器收发机适应当前信道测量的情况。在学习阶段, MPA能够提升对信道模型简化的容忍度。在自编码器架构中引入MPA的做法,利用了经典无线系统中已广泛使用且行之有效的维度变换技术,MPA的实现也是无线通信领域的一种成熟而高效的技术。
- 标签:
- 6G