前沿探索
基于AI的射频及天线设计
本文深入探讨了AI技术在射频及天线设计中的多元化应用,包括射频电路设计、天线形状优化、阵列综合、和电磁高效仿真等关键环节。

文/华为无线技术实验室:王光健,阳棂均,Jimmy Jian,Chandan Roy,潘立,黄国龙,蔡华,童文
1 引言
在当今的信息时代,射频及天线技术宛如通信领域的魔法钥匙,开启了无线通信的无限可能。它们不仅是现代通信系统的核心基石,更是连接人与人、人与世界的重要纽带。想象一下,没有射频及天线技术,我们将无法畅享便捷的移动通信,无法与远方的亲朋好友随时保持联系;卫星通信将陷入瘫痪,无法实现全球范围内的信息传递;物联网的宏伟愿景也将成为泡影,智能设备之间的“对话”将无从谈起。射频及天线设计是无线通信系统中的关键环节,其性能对整个系统的质量和效率具有重要影响,射频及天线技术的重要性不言而喻。
然而,随着科技的飞速发展,我们对通信的需求日益增长,这也对射频及天线技术提出了更高的要求。如何提高射频信号的传输效率?如何设计更小巧、更高效的天线?如何应对日益紧张的频谱资源?这些都是摆在我们面前的严峻挑战。面对新出现的挑战,传统的设计方法往往依赖于经验和试错,需要大量的时间和精力,尤其是当器件参数众多且相互依赖时计算效率将显著下降。而另一方面,随着人工智能技术的迅速发展,其在射频及天线设计领域的应用正逐渐引起人们的关注。AI具有强大的数据处理和学习能力,有望为射频及天线设计带来新的思路和方法。
本文旨在探索射频及天线技术的奥秘,寻求提升其性能的创新方法。我们将深入研究射频电路设计、天线设计和电磁仿真等关键领域,挖掘人工智能在其中的巨大潜力。通过不断的实验和分析,我们期待揭示AI技术如何模拟复杂的电磁现象,以及通过强化学习来自动调整仿真参数,实现更高效的仿真过程。这篇文章的组织结构如图1所示,引言之后主要包含下内容。第二节讨论了AI的分类和一些用于射频和天线设计的具体AI模型。第三节举例说明了AI辅助下所实现的射频电路,天线和电磁仿真。第四节专门讨论了AI在射频电路和天线设计中的具体优势。第五节给出了基于AI设计电路的具体实施示例。第六节讨论了AI在射频电路设计中的挑战和未来的展望。最后在第七节中给出结论。

图1 文章结构组成
2 用于射频和天线设计的AI模型
在射频和天线设计领域,AI正以其独特的优势重塑传统的设计方法。AI技术,尤其是机器学习(Machine Learning,ML)和深度学习(Deep Learning,DL),通过模仿人类的认知过程,使得机器能够通过识别数据中的模式来学习并解决复杂问题。这些技术在射频及天线设计中的应用,不仅提高了设计效率,还优化了设计结果,特别是在处理高维度、非线性和多物理场耦合问题时表现出色。
在射频设计中,前馈神经网络(Feedforward Neural Network,FFNN)如多层感知机(Multilayer Perceptron,MLP)和径向基函数(Radial Basis Function, RBF)网络,已被证明在解决非动态建模问题方面非常有效。小波神经网络(Wavelet Neural Network,WNN)由于其隐藏神经元的局部性质,适合于具有高度非线性或急剧变化的问题,有助于更容易的训练并取得更高的模型精度。极限学习机(Extreme Learning Machine,ELM)是一种单隐藏层FFNN,其优点是快速学习速度和在复杂电磁参数建模中(特别是在训练数据集较小的情况下)仍然保持较好性能。它们能够精确地模拟射频电路的行为,从而优化滤波器和放大器的设计。动态神经网络、递归神经网络(Recurrent Neural Network,RNN)和时延神经网络(Time-Delay Neural Network,TDNN)则在表征非线性设备或电路的时间域动态行为方面发挥着关键作用。深度神经网络(Deep Neural Network,DNN)通过其多层结构,为复杂建模问题提供了更深层次的解决方案,而生成式对抗网络(Generative Adversarial Network,GAN)则在新颖设计生成方面展现出显著优势。此外,基于知识的神经网络(Knowledge-based Neural Network,KBNN)利用现有的等效电路和经验模型,辅助微波组件的CAD,减少了对大量训练数据的依赖,并提高了模型的外推能力。这些技术的综合应用,不仅加速了设计过程,还提升了设计的整体性能和可靠性。
3 AI在射频及天线设计中的应用
3.1 射频电路设计
在射频电路设计领域,AI正以其卓越的能力重塑传统设计方法。AI技术的应用不仅加速了设计过程,还显著提升了电路性能。例如在滤波器、耦合器设计方面,AI能够精确计算并优化频率响应、耦合衰减特性和群延迟,满足多样化的频率和功率选择需求。对于放大器设计,AI技术通过智能算法优化增益、噪声系数等关键参数,确保放大器在多变的工作条件下保持卓越性能。在振荡器设计中,AI助力实现高稳定性和低相位噪声的振荡器,即使在复杂电磁环境中也能保持高频谱纯度。此外,AI在阻抗匹配方面同样展现出巨大潜力,通过精确计算匹配网络,有效提升射频电路的传输效率和整体性能。
具体在滤波器设计方面,有多种技术工艺可用于实现所需的滤波器要求,具体技术工艺的选择取决于未来的应用。例如,微带线和带状线技术适合与平面电路更好地集成。另一方面,传统波导技术适用于低传输损耗的高频应用。基片集成波导(Substrate Integrated Waveguide,SIW)是一种新兴的技术,可用于高频应用,具有低传输损耗条件,以更好地与平面系统结构集成。所有这些技术都有自己的滤波器结构的设计变量。例如,微带线的长度和宽度是微带滤波器的主要几何变量。过孔的直径和后续过孔之间的距离被认为是SIW滤波器的主要变量。光阑长度和窗口长度是波导滤波器的主要几何变量。ML技术通常用于表征或评估滤波器性能如何随其几何参数的变化而变化。我们期望一个经过良好训练的机器学习模型能够预测几何参数对滤波器响应的影响。利用这一模型,我们可以快速改进设计,避免了使用计算成本高昂且速度慢的电磁模型。
3.2 天线设计

图2 天线设计过程
在天线设计领域,AI技术正推动着天线设计向更高效、更精准的方向发展。一方面AI能够作为代替模型快速生成天线的等效仿真结果,另一方面AI技术通过对天线形状的精细调整,如改变尺寸、形状和结构,或添加特定的结构元素,实现了天线性能的优化,包括提升增益、带宽和方向性等关键指标。此外,AI在极化方式选择上的应用,通过分析不同极化对信号传输和接收的影响,使工程师能够根据具体场景需求,选择最合适的极化方式,如线极化、圆极化或椭圆极化,进一步提升信号传输效率和接收质量。在天线阵列设计方面,AI算法的辅助使天线布局和元素数量的确定更加科学,优化了波束形成和控制,显著增强了天线的方向性和增益。同时,AI技术在多频段天线设计中的应用,考虑了不同频段的天线参数和性能要求,成功实现了天线在多个频段的兼容性和高效工作,满足了现代通信对频谱资源的多样化需求。总体而言,AI技术的集成和应用为天线设计带来了创新的解决方案,提高了设计效率和系统性能,为无线通信的进步提供了强大的技术支撑。
具体在辅助天线设计方面,完整的设计流程如图2所示。在天线设计流程中,首先根据工程师的经验选择一个基本的几何形状以满足所需的性能,然后进行参数优化以找到最优设计参数。在参数优化过程中,更新模型参数的全波电磁仿真计算最为耗时。而基于机器学习算法的代理模型可以用来替代耗时的全波仿真过程,节省计算资源并加快天线设计。该过程首先需要运行全波仿真来获取数据集,即通过改变天线的几何形状在工作频段内来生成S参数和增益等输出参数。之后构建并通过生成的数据训练代理模型。在训练过程中,通过代理模型生成的结果会逐步逼近真实全波仿真结果,以在优化过程中替代耗时的全波仿真。迄今为止,大多数代理模型辅助的天线优化方法采用高斯过程(Gaussian Process, GP)代理模型,其优点在于易于实现、可解析和不确定性可量化等。在所有数据集中,大约80%的数据集用于训练代理模型,其余20%用于测试其准确性。如果测试误差不满意,则可以生成更多数据或进一步改进代理模型重复上述过程。通过代理模型得到期望的器件参数后,需要用全波仿对该器件进行验证和微调,以得到最佳设计性能。在天线分析中,机器学习能够从仿真或测量数据中推测出辐射模式和共振频率等特性。具有多个输出的复杂代理模型可以与多目标演化算法结合使用,以在多种需求指标下找到最优的天线设计。另外多种不同神经网络组合完成天线设计同一样是值得探索的方面,如图2所示的天线设计流程,第一步是选择合适的天线类型。基于支持向量机(Support Vector Machine,SVM)的推荐系统可以协助工程师进行这一选择。一旦确定了天线的基本几何形状,就可以使用人工神经网络(Artificial Neural Network,ANN)和堆叠集成学习模型等AI方法计算模型参数的值。
3.3 电磁仿真
在电磁仿真领域,通过结合AI进行多物理场耦合仿真,如电磁、热和结构等,可以更全面地评估系统在实际工作环境中的性能。这种跨学科的仿真方法为射频及天线设计提供了深入的洞察,确保了设计的鲁棒性和适应性。一方面,AI算法在电磁辐射和散射计算中快速得到计算结果。另一方面,AI算法在电磁仿真的反演分析中也显示出巨大潜力,能够从测量数据中提取关键信息,进而优化设计参数。这一过程不仅提高了设计的精确度,还加快了从概念到产品的过程。实时仿真是AI技术的另一应用领域,它使得电磁仿真能够即时反馈设计结果,显著加快了设计迭代的速度。这种快速迭代能力对于快速原型设计和测试至关重要,极大地缩短了产品开发周期。最后,AI在不确定性量化方面也发挥着重要作用。在电磁仿真中,不确定性因素可能会影响设计的可靠性。AI技术能够评估这些不确定性因素,为设计决策提供了更加可靠的依据,从而提高了设计的成功率。
具体在源与散射场之间的正反演计算方面,传统的电磁散射和辐射全波仿真中,需要做费时的矩阵求逆来计算感应电流如下:
\(\bar{J}=\left ( \overset{=}{I} - \overset{=}{\chi } \cdot \overset{=}{G }_{D} \right ) ^{-1} \cdot \left ( \overset{=}{\chi } \cdot \bar{E}_{inc} \right ) \) (1)
为了节省这方面的时间开销,人们提出了一些基于深度学习的非迭代方法。特别是在涉及复杂散射体的情况下,研究者发现基于GAN的人工智能方法优于其它类型的神经网络(如U-Net)。一个代表性的例子是前向感应电流学习方法(Forward-Induced Current Learning Method,FICLM),它通过神经网络映射来计算感应电流。然后,通过格林函数与求得的感应电流相乘来计算散射场。而从结果发现如果能使用多种输入方案作为输入,其计算得到的散射场更准确。如图3所示,输入方案涵盖了入射场和背景相对介电常数的多样化组合,满足了波动物理学中求解电磁散射问题的要求。通过AI模型和现有物理知识的相互结合,为快速求解电磁散射问题开拓了一条崭新的道路。

图3 FICLM的流程图
在反演与优化方面,研究者可以利用AI模型算法对电磁现象进行电磁反演分析,即从测量电磁数据中提取背景信息和优化器件的设计参数。已经开发了三种类型的神经网络求解器用于求解电磁反演问题。第一种模型的设计流程图如图4所示。直接从测量电磁结果反演散射体的物理参数,其学习过程可以用下面的模型表示:
\(R_{l}=\min _{R_{\theta}, \theta} \sum_{m=1}^{M} f\left(R_{\theta}\left(\bar{E}_{m}^{s}\right), \overset{=}{\chi } _{m}\right)+g(\theta)\) (2)
通过拟合训练数据中每一对物理参数 \( \overset{=}{\chi } _{m} \) 和散射场 \(\bar{E}_{m}^{s} \),我们得到了从散射场到物理参数的直接映射的神经网络 \(R_{l}\),注意,为了避免过拟合,我们还引入了正则化项 \(g(θ)\)。由于该模型学习了太多的冗余信息(已知的波动物理学信息),导致其反演能力非常有限。

图4 第一种模型的流程图
第二种模型仍然使用目标函数方法的传统框架,其中神经网络被训练为学习迭代求解器的一些组件。第三种将近似求解器(如反向传播算法)与DNN结合,通过将DNN的输入从测量的电磁场 \(\bar{E}_{m}^{s} \) 转化成了物理参数的近似解 \( \overset{=}{\chi } _{m}^{s} \) (见下面图5的模型流程图),从而减轻了神经网络学习的负担,也简化了学习过程。对于第三种方法,逆散射问题(Inverse Scattering Problem,ISP)中的迭代方法和DNN的体系结构之间的相似性启发研究人员改进了DNN的拓扑,例如由三个CNN模块组成的级联DNN,其中每个模块单独训练。一开始,研究人员专注于第三种方法的对比度信息,其中对比度信息的近似结果和真实结果被用作CNN的输入和输出。此后受到波动物理学的启发,开发了增强型的神经网络,将感应电流和电场也包括在输入和输出中,如图6所示,使得反演性能得到显著提高。这种结合了电磁物理的神经网络的学习过程可以用下面的模型表示:

图5 第三种模型的流程图

图6 神经网络电磁反演的流程图
\( R_{l}=\min_{R_{\theta },\theta } \sum_{m=1}^{M}f\left ( R_{\theta } \left ( \bar{J}^{+}, \bar{E}^{+} \right ) , \bar{J}^{l1},\bar{J}^{l2},..., \bar{J} \right )+g(\theta ) \) (3)
其中 \(\bar{J}^{l1},\bar{J}^{l2},..., \bar{J} \) 分别代表各级CNN输出的感应电流密度。
4 AI技术在射频及天线设计中的优势
4.1 提高设计效率
AI技术在射频及天线设计领域带来了显著的效率提升和创新。AI的自动化设计流程通过自动执行参数计算和模型生成等重复性任务,显著节省了设计师的时间和精力。此外,AI算法的快速仿真和优化能力,使得设计师能在极短的时间内获得高质量的设计方案。智能设计工具的开发进一步增强了这一效率,提供了更直观、高效的设计手段。
其中AI代理模型在提高效率方面起到了显著效果。AI代理模型是通过机器学习的算法模型对复杂的射频/微波组件进行等效代替,既保持了电磁模型的准确性,又提升了电路模型的计算速度。但是,这要求AI/ML模型必须经过充分的训练,并拥有足够的数据支持,以确保其能够具有足够高的准确度,替代耗时的全波电磁仿真。这种技术的应用不仅提高了设计效率,而且降低了研发成本,加速了射频及天线设计从概念到实现的整个过程。
4.2 优化设计与创新
AI在射频及天线设计中展现出其卓越的优化能力,多目标AI模型能够同时考虑性能、成本和尺寸等多个设计目标,寻找到最佳的设计平衡点。另一方面,AI强大的数据分析能力,能够精细化把控设计细节,使全局优化成为可能,进一步提升了设计质量。此外,AI的创新设计能力,能够激发了设计师的创造力,推动了新颖设计思路和方法的产生。
其中在复杂射频器件优化设计方面,经过数值数据和实验数据训练的AI模型,具有作为优化工具的巨大潜力,能够设计出传统方法难以实现的复杂天线、阵列和射频器件。一方面这些射频器件设计通常涉及时域、频域和谱域,且受到多重约束,其实质是高维和非凸的优化问题。这些问题具有非线性和多尺度特性,以及强的相互耦合,使得它们的优化设计特别具有挑战性。另一方面,优化算法通常需要大量的仿真结果来达到期望的性能,而迭代次数取决于所选优化算法和处理问题的复杂性。由于全波电磁仿真在能源和时间成本上的消耗极大,尤其是对大尺寸电磁模型的快速仿真优化,其可行性更是显得不切实际。然而,机器学习的发展为解决这些难题提供了有效的手段。它无需漫长的仿真时间就能提供与电磁模型相当的精度,极大地提高了优化的效率和可行性。
4.3 处理复杂问题
AI技术在射频及天线设计领域提供了强大的问题解决能力,特别是在处理高维度和具有复杂约束的设计问题上,AI能够准确找到最优解。AI算法在捕捉非线性问题的特征和行为方面表现出色,提供了更为精确的分析结果,这在传统方法中往往难以实现。AI的另一个显著优势在于多物理场耦合的分析能力,它能够综合考虑电磁、热、结构等不同物理场的信息,从而全面评估射频及天线系统的性能。这种跨学科的分析方法为设计提供了更深入的洞察,确保了系统在多方面性能上的优化。此外,AI技术在管理设计中的不确定性因素方面也显得尤为重要。面对材料参数的变化、工作环境的波动等不确定性因素,AI能够进行鲁棒性设计,确保射频及天线系统在各种条件下都能保持稳定性和可靠性。这些能力使得AI成为射频及天线设计中不可或缺的工具,推动了设计方法的革新和设计质量的提升。
在面对复杂射频/微波结构的模型分析时,通常涉及电磁模型(精细模型)和集总参数等效电路模型(粗略模型)两种表示方法。精细模型虽然准确,但计算成本高昂;而粗略模型虽然计算速度快,但准确性较低。传统的空间映射技术能够在这两种模型之间转换参数,以优化几何参数并达到预期的性能。AI/ML模型提供了另一种更为高效的解决方案,它们能够执行类似的参数转换,但所需的计算步骤更少。AI/ML模型通过学习大量的数据,能够洞察精细模型和粗略模型之间的复杂关系,并快速准确地调整参数,从而辅助优化过程。这种方法不仅减少了对计算资源的需求,而且加快了设计迭代速度,使得设计者能够以更低的成本和更快的速度实现高性能的射频/微波结构设计。
4.4 自适应动态调整
在射频与天线系统中具有自适应与动态调整能力将极大地提高系统的适用性和鲁棒性。通过多种不同功能的AI系统实时监测并调整射频与天线系统,将显著提高系统多方面性能如图7所示。

图7 AI在射频电路与天线设计中的自适应调整
基于AI的设计能够实时监测系统参数状态,并通过智能算法自动调整射频电路与天线参数,以适应不断变化的工作条件,从而确保通信系统的性能和稳定性。这种实时监测与调整能力显著提升了射频电路与天线系统的灵活性和响应速度。
AI技术在智能故障诊断方面同样发挥着重要作用。通过分析系统运行数据,AI能够及时发现故障并预测潜在问题,从而采取预防或纠正措施,提高系统的可用性和可靠性。这不仅减少了系统维护的人力和时间成本,也避免了因故障导致的服务中断。
此外,AI技术使射频及天线系统在动态环境中具有更好的自适应能力。在移动通信等应用场景中,信号干扰和其他环境因素可能会影响通信质量。AI能够实时分析这些变化,并自动调整天线阵列的波束状态,以优化信号传输和接收,确保通信的连续性和稳定性。
4.5 跨学科融合与个性化
AI技术在电路与天线设计领域的一项显著优势是其促进了跨学科融合与个性化设计的能力。AI不仅能够整合来自不同领域的先进技术和理念,如材料科学、电子工程和计算机科学,实现创新的融合,还能够根据特定需求和应用场景提供定制化的射频及天线设计方案。这种跨学科的融合为射频电路和天线的设计带来了新的视角和解决方案,推动了技术的创新和发展。
个性化设计方面,AI技术的应用使得设计过程更加灵活和客户化。AI可以分析特定应用的需求,如通信范围、频率带宽和环境因素,从而生成满足这些需求的定制化设计方案。这种能力不仅满足了市场的多样化需求,还为特定应用提供了优化的解决方案,增强了射频系统的性能和适用性。
5 AI模型设计实例
射频电路及天线设计是无线通信系统中最为核心且充满挑战的环节之一。随着AI技术的不断进步,其在射频电路设计和天线设计中的应用已经展现出显著的优势。随着我们深入探讨AI在射频及天线设计中的应用,我们将转向更具体的案例——滤波器设计。
5.1 带通、高通滤波器设计
通过对器件拓扑结构的像素化,使其在变量上具有了较高的自由度,从而可提高了达到预期性能的可能性。因此,该像素方案受到了微波研究界的广泛关注。各种微波电路都可以通过这种基于像素的结构实现,包括功率放大器和天线。我们也根据像素化结构的思想,设计了不同类型的微波滤波器。设计目标是开发一种适用于Ka频段(26.5GHz至40GHz)的滤波器,该滤波器需满足特定的频率选择性要求,并已被广泛应用于自动驾驶车辆领域。首先,以设计带通和高通滤波器为例。采用厚度为0.127mm的氧化铝作为衬底,采用4µm厚的金作为传输线设计滤波器。对滤波器的设计可以遵循以下步骤:第一步:在CST和HFSS等商业软件上建立具有两个端口50Ω微带线的实心贴片的电磁模型。第二步:根据谐振器的数量,将完整的Patch切分成不同大小的网格。第三步:每个网格元素可以被指定为金属或非金属,在神经网络模型训练阶段将被对应为数值1或0。第四步:设置Python环境,实现自动执行电磁软件。第五步:从电磁软件完成数据生成过程。第六步:用二进制流作为输入(金属=1;非金属=0),\(S_{11}\) 和 \(S_{21}\) 参数作为输出,来训练CNN模型。第七步:用训练好的CNN模型替换电磁模型,该模型在计算速度上比电磁模型更快。第八步:在所开发的CNN模型上建立一个合适的优化算法,该算法以通带回波损耗和阻带插入损耗为输入,能够输出所需的滤波器形状。
图8显示了在CST环境中设置的初级过滤器结构。为了减少数据生成时间,我们在目标结构中施加了对称平面,其中右半结构是左半结构的镜像。我们将左半平面分成4x5=20个矩形块。如图8所示,根据之前联轴器的设计经验,将部分区域在优化之前进行了预设置,即图中红黑色方块的1或0。另一方面,我们对于I/O(输入输出)、I/R(谐振器间)耦合区域和谐振器区域设计了不同的网格尺寸,I/O区域和耦合区域每个矩形块网格的尺寸为0.12mmx0.3mm,而谐振器区域每个矩形块网格的尺寸为0.27mmx0.3mm。选择不同尺寸带来的优势是尽可能保证精度的前提下,减少全波仿真所用的时间。通常,与谐振器尺寸相比,耦合区域太小(耦合间隙)。因此,我们在可能的耦合区域中保持较小的网格尺寸,而谐振器网格尺寸设置较大。通过这种方式,可以减小设计目标空间中的变量总数。在这种情况下,总共15个网格被视为变量。通过引入金属和非金属件,我们总共找到了32768个结构。因此,从34GHz到46GHz进行了32768次全波电磁仿真,共51个样本。我们将15个二进制变量和频率变量作为输入,而 \(S_{11}\) 和 \(S_{21}\) 的实部和虚部作为模型输出来训练CNN模型。最终训练出了能等效代替全波仿真的EM-CNN模型。

图8 像素化滤波器的仿真示意图
在成功开发了准确的EM-CNN模型后,我们结合了遗传算法(Genetic Algorithm,GA)优化方案,通过改变金属和非金属的排列组合(分布情况),以实现具有不同滤波性能的滤波器。首先,我们的目标是设计一个通带滤波器,其阻带定义为:
- 阻带1(SB-1)≤40GHz
- 阻带2(SB-2)≥44GHz
- 通带范围41GHz≤Passband(PB)≤43GHz
- 通带插入损耗 \(max[S_{21}(PB)] > −1 dB\)
- 通带最大回波损耗 \(max[S_{11}(PB)] < −10 dB \)
- 阻带抑制 \(max[S_{21}(SB)] < −25 dB\)
其次,我们设计了另一个高通滤波器,其中阻带定义为:
- 阻带1(SB-1)≤40GHz
- 通带范围≥42GHz
- 带内最小插入损耗 \(max[S_{21}(PB)] > −1 dB\)
- 通带最大回波损耗 \(max[S_{11}(PB)] < −10 dB\)
- 阻带抑制 \(max[S_{21}(SB)] < −25 dB \)
由上述设计目标,我们以下列方式建立滤波器的损失函数:
\( K=max\left [ (S_{11})_{PB},- RL \right ] + w*max\left [ (S_{21})_{SB},- IL \right ] \) (4)
通带回损(RL)和阻带插入损耗(IL)之间的加权因子用(4)中的w表示,加权因子w是在通带回波损耗和阻带插入损耗之间起调节作用的关键因素。该系数是根据优化参数的灵敏度及其对通带和阻带中回波损耗和插入损耗特性的综合影响来确定的。对于带通滤波器,将对应的损失函数带入EM-CNN模型优化,可生成相应的二进制序列为[1,0,0,0,1,0,1,0,1,0,0,1,1,1,1]。将这个序列转换成CST中的几何形状如图9a所示。对于高通滤波器,优化生成的二进制序列是[0,1,0,1,1,1,0,0,1,1,1,1,1,1,1],它被转换为CST中的几何形状如图9b所示。这些滤波器的全波仿真性能分别如图10a和图10b所示。滤波器带内带外性能基本满足预期要求,验证了我们的设计方法。

图9 像素化滤波器的优化结果

图10 优化后滤波器的仿真结果
5.2 双通带滤波器设计
在设计了带通和高通两个滤波器之后,我们的目标是根据开发的CNN模型设计一个双通带滤波器。双通带滤波器较之前的单一通带需要设计更复杂的目标函数。
- 阻带1:36GHz≤Stopband(SB-1)≤38GHz
- 阻带2:44GHz≤Stopband(SB-2)≤46GHz
- 通带1:34GHz≤Passband(PB1)≤36GHz
- 通带2:38GHz≤Passband(PB2)≤42GHz
- 通带插入损耗 \( max[S_{21}(PB)] > –2 dB \)
- 带内最大回波损耗 \( max[S_{11}(PB)] < –15 dB \)
- 带外抑制 \( max[S_{21}(SB)] < –25 dB \)

图11 优化后滤波器的响应比较
我们选择w=0.8来平衡通带回波损耗和阻带插入损耗,以实现损失函数最小化。与前两个示例类似,我们使用GA优化算法来获得二进制序列,该二进制序列代表滤波器的几何形状与对应的目标响应。GA提供的优化二进制序列是[1,0,1,0,0,1,1,1,1,0,1,1,1,1,0,1]。优化后的二进制序列对应的滤波器的几何形状如图9c所示。这里我们进一步对比了CNN预测结果与全波仿真结果,CNN预测的滤波器S参数响应如图11a所示,CST软件计算的S参数响应如图11b所示。我们可以看出CST计算的响应与CNN预测的响应具有极高的相似,同时也基本达到了所期望设计的滤波器性能。在上述的例子中仅是为了展示可行性,为了减少设计周期,其性能指标并没有严格满足。显然,通过进一步扩大滤波器自由度和加密网格能够实现更优的滤波器性能。
6 挑战与展望
6.1 数据质量和可用性
在天线设计领域,AI模型的成功应用高度依赖于数据的产生、质量和可用性。大规模、高质量的数据是训练有效AI模型的关键因素,但在射频及天线设计领域,面临数据有限、专业性强和复杂性高的挑战。这些数据通常来源于电磁模型的仿真,其计算成本高昂,进一步增加了数据获取的难度。
一个准确的AI/ML模型需要充分的训练数据、验证数据和测试数据,以全面代表目标问题。在射频/微波结构的背景下,这些数据集通常由电磁模型仿真生成,这不仅成本高昂,而且耗时。此外,为了提高模型的准确性和泛化能力,必须努力收集、整理和标注相关数据,这涉及到对数据的细致选择和采样,确保数据集的质量和可用性能够代表设计空间的关键区域。
为应对射频及天线设计中AI模型训练数据的挑战,可图11优化后滤波器的响应比较以采取多种策略来优化数据生成和模型准确性之间的平衡:(1)主动学习(Active Learning):通过主动学习策略,我们能够有选择性地生成最具信息量的数据点,这种方式可以在减少所需数据总量的同时,仍然保持模型的高准确性。(2)迁移学习(Transfer Learning):利用在相关任务上预训练的模型,可以显著减少所需的新数据量,因为模型可以基于之前学习到的特征和模式进行构建。(3)数据增强(Data Augmentation):应用数据增强技术可以帮助人为增加数据集的规模,减少对额外电磁仿真的需求,同时保持训练数据的多样性。(4)降维(Dimensionality Reduction):使用降维技术可以集中关注最关键的参数,简化数据生成过程并降低计算成本。平衡最小化数据生成时间和最大化模型准确性的需求涉及战略性的权衡。
除了传统的数据收集和整理方法,还可以利用AI技术自身来生成所需的数据。如扩散模型(Diffusion Model)和其他类型的生成模型,提供了一种创新的数据生成方式。这些模型能够学习现有数据的分布特征,并生成新的、与真实数据相似的数据样本。在射频及天线设计中,这意味着可以从有限的真实测量或仿真数据出发,生成更多的数据以扩充训练集。这种方法可以捕捉到数据的复杂结构,使得生成的数据既具有多样性又保持了与原始数据集的一致性。此外,GAN也是一种强大的数据生成工具,它们通过对抗训练的方式生成逼真的数据样本。在射频及天线设计中,GAN可以用于生成电磁仿真数据,帮助设计者在早期设计阶段评估不同设计方案的性能。采用这些策略可以帮助优化这种平衡,并为射频/微波结构开发有效的AI/ML模型。这些方法的运用不仅加速了AI模型的开发过程,也为射频及天线设计领域带来了创新和高效的解决方案。
6.2 模型选择和参数配置
在射频/微波结构设计中,开发AI/ML模型时面临的一个主要问题是模型选择和超参数配置。由于不同问题的特性差异,没有单一模型能够适用于所有场景,因此必须根据问实践122|华为研究2024年11月题陈述选择最合适的模型架构。此外,超参数的选择,如层数、神经元数量、数据分割比例、激活函数等,对模型性能有显著影响。目前,超参数的选择很大程度上依赖于专家经验和试错方法,这不仅耗时耗力,而且可能引入模型开发的不确定性。因此,如何高效、准确地选择模型和配置超参数,是实现高性能AI/ML模型的关键挑战。
为了解决模型选择和超参数配置的问题,可以采取以下策略:(1)开发自动化的模型选择工具,这些工具能够基于问题特性和数据特征推荐或选择最合适的模型架构。(2)使用超参数优化技术,如网格搜索、随机搜索或贝叶斯优化,来系统地探索超参数空间,找到最优的超参数组合。(3)开发自动化流程,集成数据预处理、模型训练、超参数优化和模型评估,以减少人工干预并提高开发效率。
6.3 算法复杂度和计算资源
在射频及天线设计中应用AI/ML算法时,算法复杂度和计算资源成为了显著的瓶颈问题。高级的AI算法,尤其是深度学习模型,往往需要大量的计算资源来进行训练和推理。这些资源包括但不限于高性能的GPU、大量的存储空间以及快速的数据处理能力。然而,这些资源可能昂贵且难以获得,特别是对于研究和小型开发团队。此外,高度复杂的算法可能导致训练时间过长,从而减缓了设计迭代速度和创新进程。因此,如何平衡算法的复杂度与可用计算资源,成为实现高效AI辅助设计的关键问题。
为了解决算法复杂度和计算资源的问题,可以考虑以下解决方案:(1)算法优化:研究和开发更高效的算法,减少计算步骤和资源消耗,同时保持或提高模型性能。(2)模型简化:通过模型剪枝、知识蒸馏等技术,简化模型结构,减少模型参数,以降低计算负担。(3)硬件加速:利用专用硬件如张量处理器(Tensor Processing Unit,TPU)、现场可编程门阵列(Field Programmable Gate Array,FPGA)等进行AI算法的加速,这些硬件为深度学习提供了优化的计算能力。(4)云计算资源:利用云计算服务提供的强大计算资源,按需分配,以降低本地硬件投资成本。(5)并行计算:采用并行计算技术,将训练任务分配到多个处理器或设备上,以缩短训练时间。(6)资源调度和管理:开发智能的资源调度系统,优化计算资源的分配和使用,提高资源利用率。(7)轻量级模型:开发轻量级的AI模型,如MobileNet、ShuffleNet等,这些模型专为资源受限的环境设计。(8)模型量化:通过模型量化技术减少模型的精度要求,降低计算复杂度,同时减少模型对内存和存储的需求。(9)异构计算资源利用:结合使用不同类型的计算资源,如CPU、GPU、专用集成电路(Application-specific Integrated Circuit,ASIC)等,以实现计算任务的最优分配。通过这些策略的实施,可以在有限的计算资源下,有效降低AI算法的复杂度,加快设计流程,提高射频及天线设计的效率和可行性。
6.4 可解释性与可迁移性
在射频及天线设计时,AI模型的可解释性是一个重要但常被忽视的问题。尽管一些多目标、多功能AI模型,特别是深度学习模型,在解决特定复杂问题时表现出色,但它们通常被认为是“黑箱”,因为很难理解模型是如何做出特定决策的。在射频及天线设计中,设计者需要理解模型的决策过程,以确保设计满足物理原理和实际应用的要求。缺乏可解释性不仅增加了设计风险,也限制了AI模型在关键应用中的采纳。
为了解决射频及天线设计中AI模型的可解释性问题,可以采取以下策略:(1)开发和应用可解释的AI技术,如LIME和SHAP,这些技术可以提供模型预测的解释。(2)利用可视化工具来展示模型内部的工作原理,包括特征的重要性和决策边界。(3)使用更简单、更易于理解的模型,如决策树或线性模型,尽管它们可能在某些情况下不如复杂模型性能优越。(4)通过模型蒸馏技术,将复杂模型的知识迁移到一个更简单的模型中,以提高可解释性。(5)采用后处理技术,如规则提取,从黑盒模型中提取可解释的规则。(6)在模型设计阶段就考虑可解释性,选择那些天然具有透明性的模型架构。通过这些方法,可以提高AI模型在射频及天线设计中的可解释性,增强设计者对模型的信任,并促进AI技术在这一领域的应用。
但是,AI模型的可解释性和可迁移性之间的关系一般是矛盾的。例如,高度复杂的模型可能在新环境(可迁移性)中表现良好,但可能难以解释(可解释性差),而简单模型可能容易解释,但可能在多样化的环境或数据上(鲁棒性和可迁移性)表现不佳。缺乏可迁移性,不仅在设计初期需要多个模型来适配不同场景,而且还会在模型应用后期缺乏应变特殊情况的能力,即提高了设计成本也加大了维护难度。因此,正如物理学界追求的大一统理论一样,提出契合射频电路网络的新AI模型,在模型具备可解释的同时,使其充分考虑多种情况即具有较为广阔的泛化能力(可迁移性),是实现AI技术在射频及天线设计中广泛应用的关键挑战之一。
6.5 多领域融合
射频及天线设计是一个多学科交叉的领域,涉及电磁学、材料科学、电子工程等多个学科。AI模型在这一领域的应用需要能够处理和融合来自不同学科的复杂数据和知识。然而,多领域融合在AI模型开发中面临诸多挑战。不同学科的数据可能具有不同的特性和格式,难以直接整合。此外,不同领域的专业知识和理论需要有效地结合,以确保AI模型能够全面地理解和解决问题。当前,AI模型往往专注于单一领域,缺乏跨学科的集成和协同,限制了其在射频及天线设计中的性能和应用范围。
为了解决射频及天线设计中AI模型的多领域融合问题,可以考虑以下策略:(1)组建包含不同领域专家的团队,实践2024年11月华为研究|123共同参与AI模型的开发,确保模型能够综合考虑多学科的知识和数据。(2)开发数据标准化流程,将不同来源和格式的数据转化为统一格式,便于AI模型处理和分析。(3)应用多任务学习技术,使AI模型能够同时学习多个相关任务,促进不同领域知识的融合。(4)利用迁移学习技术,将在一个领域学到的知识迁移到另一个领域,提高模型在新领域的适应性和性能。(5)设计领域特定的模型架构,能够更好地表示和处理特定学科的数据和知识。(6)构建跨学科的知识图谱,整合不同领域的专业知识,为AI模型提供丰富的背景知识。
7 结语
本文详细探讨了人工智能在射频及天线设计中的应用、优势、挑战以及未来的发展方向。AI技术在天线优化、射频电路设计和电磁仿真等方面展现出了巨大的潜力,能够提高设计效率、优化设计结果并处理复杂问题。然而,数据质量、模型选择、算法复杂度、模型可解释性与可迁移性等挑战也需要得到关注和解决。尽管面临一些挑战,AI在射频及天线设计中的应用前景依然广阔。通过不断的研究和创新,我们有理由相信AI将为射频及天线设计带来更大的突破和发展。AI为射频及天线设计带来了新的机遇,通过提高设计效率和优化性能,有望推动无线通信领域的进一步发展。然而,要实现其全部潜力,还需要解决一些技术和数据方面的挑战。未来的研究将集中在提高数据质量、开发更高效的算法、提高模型的可解释性上以及促进多领域融合等方面。深入研究AI技术在射频及天线设计中的应用,推动无线通信系统的发展,为人们的生活带来更多便利。