买专利,只认龙图腾
首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

【发明授权】一种基于强化学习的认知无线电抗干扰智能决策的方法_天津大学_201810325152.7 

申请/专利权人:天津大学

申请日:2018-04-12

公开(公告)日:2021-04-27

公开(公告)号:CN108712748B

主分类号:H04W16/14(20090101)

分类号:H04W16/14(20090101);H04W72/08(20090101)

优先权:

专利状态码:有效-授权

法律状态:2021.04.27#授权;2018.11.20#实质审查的生效;2018.10.26#公开

摘要:本发明涉及一种基于强化学习的认知无线电抗干扰智能决策的方法,包括:在多信道认知场景下,认知用户以感知到的信道信息和干扰器发射功率、信道选择信息为状态信息S,自主的选择发射功率和信道选择信息为动作信息a;定义认知用户的信干噪比SINR和能量消耗E的比值为效用函数R,作为认知用户动作选择性能衡量标准;在认知决策模型中,状态信息作为已知条件,以认知用户为主体决策动作选择,将效用函数作为强化学习中的瞬时回报函数,构建Q‑learning强化学习模型;得到认知用户优化动作决策。

主权项:1.一种基于强化学习的认知无线电抗干扰智能决策的方法,包括下列步骤:1在多信道认知场景下,认知用户以感知到的信道信息和干扰器发射功率、信道选择信息为状态信息S,自主的选择发射功率和信道选择信息为动作信息a;定义认知用户的信干噪比SINR和能量消耗E的比值为效用函数R,作为认知用户动作选择性能衡量标准: 其中,ES,a=pse+c·1-Ihts,ht-1s,ε表示高斯白噪声功率,ps和hs为认知用户的发射功率和信道增益,pj和hj为干扰器的发射功率和信道增益,is和ij分别表示认知用户和干扰器选择的信道标号,和表示认知用户前后两次选择信道的信道增益,t代表其顺序性,I·表示指示函数,用来判断干扰器是否与认知用户选择了同一信道,以及认知用户是否在相邻的时间内产生了跳频进而有能量输出;c为跳频能量损耗,e为单位发射功率能量损耗,参数β∈Β={0,1}表示授权用户的存在情况;2在认知决策模型中,状态信息作为已知条件,以认知用户为主体决策动作选择,将效用函数作为强化学习中的瞬时回报函数,利用三者{S,a,R}构建Q-learning强化学习模型;初始状态动作值函数QS,a为0,随机初始化当前状态信息S=S0,以等概率策略选择初始动作a=a0,并执行该动作;3利用认知用户对信道的实时监测性能观察到下一环境状态St+1,通过遍历该状态下所有可能动作的QS,a值,选择值最大的对应的动作作为下一动作选择策略,记下一动作为at+1;4计算当前状态动作对的效用函数R,对当前的动作决策做出评价,并以强化学习思想更新状态动作值函数QS,a,以下一环境状态和动作信息更新为当前的状态和动作信息S=St+1,a=at+1,循环执行上一步骤,动态的给出认知用户优化动作决策,直到本次认知交互阶段结束。

全文数据:一种基于强化学习的认知无线电抗干扰智能决策的方法技术领域[0001]本发明属于智能认知无线电领域,尤其针对认知用户与干扰器之间交互,利用机器学习算法中强化学习算法来实现认知无线电抗干扰决策问题。背景技术[0002]随着认知无线电通信技术的发展,可用的频谱资源缺乏问题日益严峻,认知用户的数量激增,找到有效的策略对空闲频谱的分配至关重要。认知无线电在技术方面的逐渐成熟,也使得军事通信在现代战争中的作用和地位不断提升,军事通信抗干扰问题日益突出。传统的决策技术一般是在考虑了次用户对授权用户的干扰约束下最优次用户的性能,存在着动态调整策略的不足,必须要发展新的智能化的抗干扰通信技术来应对各种干扰手段。针对干扰问题通信中的解决方法主要为频域的扩频技术和空间域的自适应天线、分集接收技术以及时域的猝发通信技术等,应用较广泛的当属扩频技术和自适应天线技术。扩频抗干扰主要由直接序列扩频和跳频两种方式,本专利仅考虑到认知无线电场中的跳频选择,即通过选择不同的载波来规避地方的干扰。[0003]人工智能以其解决复杂问题的高效性被广泛应用于认知学习。智能学习一般分为在线学习和离线学习两种方法,在线学习主要是通过与无线电环境的交互,获取环境信息,依靠自身来进行学习,通常用于认知无线电系统的初始工作状态,如隐马尔科夫模型和强化学习算法。BkassinyM等人系统的阐述了马尔可夫决策Markovdecisionprocess,MDP框架,以及强化学习模型可以应用于在马尔可夫状态下的中心策略决策,和非马尔可夫状态下用梯度策略搜索的方法来提高认知系统的性能。本专利用到的强化学习算法是一种模型无关的学习算法,其模型构建于环境与agent的交互,最优行动值估计的更新依赖于各种“假设”的动作,而不是根据学习策略所选择的实际行动,是对状态动作对的值函数进行估计来求得的最优策略。[0004]将强化学习与认知无线电有机的结合起来,面对智能干扰器能产生不同的干扰问题,嵌入强化学习算法的认知引擎能够通过对策略选择的试错和环境反馈信息,动态的调整认知系统的参数和策略选择情况,进而能够在环境信息不充分的条件下,相比于随机的选择策略有效的改善通信质量。发明内容[0005]本发明提供一种基于强化学习算法的认知无线电抗干扰决策方法,该方法面向认知无线电中认知用户易受到干扰的情况,即认知用户不能获得全部的无线电环境信息且可能存在智能干扰的场景,充分利用强化学习算法的信息依赖度低和自适应改变策略的优势,能够更好的结合到认知用户的信道选择和发射功率分配问题上,提高认知用户的抗干扰性能。采用的技术方案如下:[0006]—种基于强化学习的认知无线电抗干扰智能决策的方法,包括下列步骤:[0007]1在多信道认知场景下,认知用户以感知到的信道信息和干扰器发射功率、信道选择信息为状态信息S,自主的选择发射功率和信道选择信息为动作信息a;定义认知用户的信干噪比SINR和能量消耗E的比值为效用函数R,作为认知用户动作选择性能衡量标准:[0011][0012]£表示高斯白噪声功率,以和匕为认知用户的发射功率和信道增益,Pj和hj为干扰器的发射功率和信道增益,is和k分别表示认知用户和干扰器选择的信道标号,表示认知用户前后两次选择信道的信道增益,t代表其顺序性,I·表示指示函数,用来判断干扰是否与认知用户选择了同一信道,以及认知用户是否在相邻的时间内产生了跳频进而有能量输出;c为跳频能量损耗,e为单位发射功率能量损耗,参数βeB={0,1}表示授权用户的存在情况[0013]2在认知决策模型中,状态信息作为已知条件,以认知用户为主体决策动作选择,将效用函数作为强化学习中的瞬时回报函数,利用三者{S,a,R}构建Q-Iearning强化学习模型;初始状态动作值函数QS,a为0,随机初始化当前状态信息S=So,以等概率策略选择初始动作a=ao,并执行该动作;[0014]3利用认知用户对信道的实时监测性能观察到下一环境状态St+1,通过遍历该状态下所有可能动作的QS,a值,选择值最大的对应的动作作为下一动作选择策略,记下一动作为at+i;[0015]4计算当前状态动作对的效用函数R,对当前的动作决策做出评价,并以强化学习思想更新状态动作值函数QS,a,以下一环境状态和动作信息更新为当前的状态和动作信息S=St+i,a=at+i,循环执行上一步骤,动态的给出认知用户优化动作决策,直到本次认知交互阶段结束。[0016]本发明基于强化学习算法,根据认知场景的特点,综合信道选择和发射功率分配问题,定义能效函数为强化学习中的回报函数,评价算法选择动作的性能。算法能有效解决未知干扰类型情况下的发射功率和信道选择问题,最终实验结果表明对比于传统选择策略能有效提尚能效性能。附图说明[0017]图1本发明认知干扰信道场景图[0018]图2本发明结合场景的决策算法流程具体实施方式[0019]下面结合附图和实施例对本发明进行说明。[0020]1.模型构建[0021]将决策学习问题可以描述成马尔可夫决策过程的基础是,假设学习过程是具有马尔可夫性质的问题,即下一时刻环境状态的转移和接收到的回报函数R只取决于上一时刻的状态S和采取的动作a有关。考虑单认知用户和单个干扰器存在的条件下,对于用户和干扰的信道选择和功率选择问题进行建模。假设认知用户的发射功率等级有E级,干扰器的发射功率等级有F级。考虑对多信道的划分上,将信道按照不同信道增益划分为M个,明确指出某时隙内,无论是认知用户还是干扰器都只能接入一个空闲信道。[0022]2.效用函数设计[0023]在发射功率的选择上,发射功率越大,接收端将会得到更高的信干噪比,但会消耗更多的能量。结合认知用户与干扰器的交互过程中,考虑认知用户为了规避干扰器带来的干扰进行下一时刻跳频策略选择的情况,如下分别给出信干噪比SINR和能量消耗E的定义形式:[0026]其中ε表示高斯白噪声功率。?3和]^为认知用户的发射功率和信道增益,pj和hj为干扰器的发射功率和信道增益,is和h分别表示认知用户和干扰器选择的信道标号,C1和表示认知用户前后两次选择信道的信道增益,t代表其顺序性。I·表示指示函数,用来判断干扰是否与认知用户选择了同一信道,以及认知用户是否在相邻的时间内产生了跳频进而有能量输出。信道的增益集合表示为^卢!1={}11,**'1«}。设定跳频能量损耗为c,单位发射功率能量损耗为e。将认知用户选择自己的发射功率和占用信道表示动作为a=[Ps,is],其中为认知用户的发射功率集合,Φ={1,···,Μ}为空闲信道标号集合,A为动作集合;智能干扰器同样可以选择自己的发射功率和占用信道来对认知用户的传输造成干扰,记录为d=[Phij],其中Pje··,ρ」ρ}为干扰器的发射功率集合,Λ为干扰器的选择集合。考虑到授权用户对信道的占用时,需要进行规避,设置参数PeB={0,1}表示授权用户的存在情况。S=[i3,d]表示认知环境信息,其中i3eB,deΛ,SeΩΩ:ΒΧΛ,Ω为状态集合。[0028]如上所示,从均衡的角度出发,将能效函数定义为SINR和E的比值形式,将其作为强化学习模型中的瞬时回报函数,代表不同状态下动作选择的性能评价。通过认知阶段动态的交互,认知用户能得出不同状态下最恰当的动作决策,提高抗干扰能力。[0029]3.结合算法决策[0030]基于马尔可夫模型的强化学习算法用于认知无线电决策中主要由{S,a,R,γ}4个部分构成,分别表示为当前所处于的状态、针对当前状态给出的动作选择、状态动作选择所对应的回报、以及折损参数,γ表示的是随着时间的增加,越往后的时间策略对当前状态造成的影响衰减情况。[0031]本发明研究一种基于时间差的方法,将设计的效用函数作为强化学习算法中的回报函数,采用Q-Iearning强化学习算法融入场景。算法以QS,a值函数的更新为核心,逐步逼近策略选择最优:[0033]式中α表示学习速率,其中,表示在当前状态下选择使得QS,a值函数最大作为其状态值函数值。强化学习目的是找到最优的行为策略,即要求每一次的转移都是使得回报最大的。给出策略的选择标准:,以该策略对不同的状态下的动作进行选择,在有限次数的算法迭代之后,评价算法性能的QS,a值函数会收敛到较稳定的值。[0034]以认知用户为中心,将认知用户的动作表示为强化学习中的动作a=[ps,is],强化学习中的状态表示为信道状态和干扰器的前一动作组合S=[i3,d]。初始时随机假定一个干扰动作,在认知用户与干扰器的交互过程中,认知用户感知当前信道信息并以干扰的前一动作信息为当前状态信息,利用强化学习思想策略地选择自己的通信动作,并结合瞬时无线电环境与认知用户动作计算策略的能效函数表示的回报值R,对QS,a值函数内容更新并开始下一次迭代。当授权用户存在时,认知用户和干扰器都不进行动作选择,记此时的R=0。算法能够面对变化的干扰环境实时给出较好的信道和发射功率选择策略。结合图2给出算法的基本执行步骤:[0035]⑴初始化:[0036]初始化认知系统中一系列的参数和变量来构建认知模型;给定某个初始状态S=So,默认以均匀概率选取初始状态的动作a=ao,并执行该动作。[0037]2执行循环:[0038]判断当前的执行次数是否为本阶段设定的最大循环次数N,是则退出循环结束算法,否则继续执行。在当前的状态S和动作执行a之后,观察下一状态St+1情况,以策略选择下一可能动作+1。计算以认知用户的发射功率和所选信道的情况设计的能效函数值R,实时地作为当前动作的选择评价。并根据强化学习算法更新状态动作值函数QS,a,对不同的状态的动作选择情况更新。将下一状态和动作的选择更新为当前状态和动作S=St+1,a=+1,开始新一轮的循环操作。

权利要求:1.一种基于强化学习的认知无线电抗干扰智能决策的方法,包括下列步骤:1在多信道认知场景下,认知用户以感知到的信道信息和干扰器发射功率、信道选择信息为状态信息S,自主的选择发射功率和信道选择信息为动作信息a;定义认知用户的信干噪比SINR和能量消耗E的比值为效用函数R,作为认知用户动作选择性能衡量标准:其中ES,a=pse+c·1~IChts,ht_1s,ε表示高斯白噪声功率,Ps和匕为认知用户的发射功率和信道增益,PdPhj为干扰器的发射功率和信道增益,idPh分别表示认知用户和干扰器选择的信道标号,和犮表示认知用户前后两次选择信道的信道增益,t代表其顺序性,I·表示指示函数,用来判断干扰是否与认知用户选择了同一信道,以及认知用户是否在相邻的时间内产生了跳频进而有能量输出;c为跳频能量损耗,e为单位发射功率能量损耗,参数βeB={0,1}表示授权用户的存在情况2在认知决策模型中,状态信息作为已知条件,以认知用户为主体决策动作选择,将效用函数作为强化学习中的瞬时回报函数,利用三者{S,a,R}构建Q-Iearning强化学习模型;初始状态动作值函数QS,a为O,随机初始化当前状态信息S=So,以等概率策略选择初始动作a=ao,并执行该动作;3利用认知用户对信道的实时监测性能观察到下一环境状态St+1,通过遍历该状态下所有可能动作的QS,a值,选择值最大的对应的动作作为下一动作选择策略,记下一动作为+1;4计算当前状态动作对的效用函数R,对当前的动作决策做出评价,并以强化学习思想更新状态动作值函数QS,a,以下一环境状态和动作信息更新为当前的状态和动作信息S=St+i,a=Eit+ι,循环执行上一步骤,动态的给出认知用户优化动作决策,直到本次认知交互阶段结束。

百度查询: 天津大学 一种基于强化学习的认知无线电抗干扰智能决策的方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

相关技术
相关技术
相关技术
相关技术