买专利,只认龙图腾
首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

【发明授权】基于生成对抗网络与自适应比例生成样本图片的方法_杭州电子科技大学_201810762313.9 

申请/专利权人:杭州电子科技大学

申请日:2018-07-12

公开(公告)日:2020-06-23

公开(公告)号:CN109165735B

主分类号:G06N3/08(20060101)

分类号:G06N3/08(20060101)

优先权:

专利状态码:有效-授权

法律状态:2020.06.23#授权;2019.02.01#实质审查的生效;2019.01.08#公开

摘要:本发明公开了一种基于生成对抗网络与自适应比例生成新图片的方法,包括以下步骤:S1,在输入图片上直接添加由生成对抗网络生成的与输入图片分布接近的噪声;S2根据图片方差构造自适应比例,将输入图片与生成对抗网络生成的噪声以该比例进行融合生成新图片,新图片根据自适应比例调节噪声与输入图片比重;S3通过图片和噪声像素相加的操作为新图片补充原图片信息,生成有益于提高DNN检测率的最终图片。采用本方法提高了DNN的准确率,成本相对较小的,复杂度也更低。

主权项:1.基于生成对抗网络与自适应比例生成样本图片的方法,包括以下步骤:S1由生成对抗网络生成与输入样本图片分布接近的噪声;S2根据输入样本图片方差构造自适应比例,将输入样本图片与生成对抗网络生成的噪声以该比例进行融合生成新样本图片,新样本图片根据自适应比例调节噪声与输入样本图片比重;S3将新样本图片和输入样本图片进行像素相加,从而为新样本图片补充输入样本图片的信息,生成有益于提高DNN检测率的最终样本图片。

全文数据:基于生成对抗网络与自适应比例生成新样本的方法技术领域本发明属于深度神经网络的技术领域,具体涉及一种基于生成对抗网络与自适应比例生成新样本的方法。背景技术计算机视觉主要是利用机器试图建立能够从图像或者多维数据中获取“信息”的人工智能系统,具体来说是指利用摄影机和电脑等代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。而深度神经网络DNN是计算机视觉应用的基础,近几年随着计算机硬件能力的不断提高,DNN技术的发展也突飞猛进,尤其是在计算机视觉领域如图像分类,目标定位等,DNN的准确率甚至超过人眼。为了进一步提高DNN的准确率,大量的研究主要关注于构造更深更复杂的模型和采集更多的图片扩充训练集方面。然而,DNN本身具有非常庞大的参数,更深的模型将会大量增加网络参数,使得计算成本上升,训练难度也增大。采集更多的图片扩展训练集虽然能够明显提高网络性能,但是由于长尾现象,当数据达到一定量时,准确率的提升非常小,并且采集图片的成本非常昂贵。因此,在常用数据集上,利用经典或者构造合理的DNN来提升性能就十分重要。简单神经网络的优化问题是凸优化问题,“凸优化”是指一种比较特殊的优化,具体是指求取最小值的目标函数为凸函数的一类优化问题,其通过一些常用算法如GradientDescendGD、StochasticGradientDescendSGD等能够快速收敛到最小值;而DNN的优化问题则是一个非凸优化问题,网络中存在大量的鞍点,在模型参数中加入噪声扰动或者根据Hessian矩阵找出鞍点逃逸方向的方法能够提升模型性能,但是改变模型参数直接影响梯度更新算法性能,可能导致模型收敛下降,并且需要严格的理论证明改变后的优化算法的收敛性。因此仍需要进一步研究一种新的方法来提高DNN的准确率。发明内容本发明的目的是为了解决上述问题,提供一种基于生成对抗网络与自适应比例生成新样本的方法,提高了DNN的准确率,成本相对较小的,复杂度也更低。为了达到上述发明目的,本发明采用以下技术方案:基于生成对抗网络与自适应比例生成新样本的方法,包括以下步骤:S1,在输入样本上直接添加由生成对抗网络生成的与输入样本分布接近的噪声;S2根据样本方差构造自适应比例,将输入样本与生成对抗网络生成的噪声以该比例进行融合生成新样本,新样本根据自适应比例调节噪声与输入样本比重;S3通过像素相加的操作为新样本补充原样本信息,生成有益于提高DNN检测率的最终样本。作为优选的技术方案,所述步骤S1具体包括:步骤一,生成对抗网络中的生成网络使用四个卷积层对输入样本Xi进行下采样操作,得到低维隐变量,再将低维隐变量经过四次相反的卷积操作,对隐变量进行上采样操作,将其映射回高维数据空间,得到与输入样本相似的噪声;其中,Xi为输入样本,假设样本总数为N,i∈[1,N],N是一个有限的实数,其大小等于训练集中样本的总数,训练集确定下来后,N的大小也随之确定。例如:假设训练集中有10000图片,N的大小就是10000;步骤二,将输入样本与噪声共同送入生成对抗网络中的鉴别网络,鉴别网络与生成网络形成对抗机制,在二者的博弈过程中,噪声的分布与输入样本的分布越来越接近,最终生成网络与鉴别网络达到动态平衡,生成网络的输出就是所需要的最终的噪声。作为优选的技术方案,所述步骤一具体为:假设输入样本Xi的分布为Pdata,生成网络利用若干卷积层将输入样本映射到低维隐变量空间,得到分布为PZZi的低维隐变量Zi,然后生成网络根据低维隐变量Zi生成分布为Pg的新图片,该新图片就是本发明所需要添加到Xi上的噪声,用符号GX表示生成网路根据Xi生成新图片的过程;DX表示X来自于Pdata或Pg;训练鉴别网络时最大化拥有正确标签图片的概率;训练生成网络时,最小化log1-DGX,相当于使生成图片的分布越接近真实分布。用公式1表示如下所示;minGminDVD,G1其中,令VD,G关于DX的导数为0,有公式2;那么,最优判别网络如公式3所示;从公式3中可以看出,一个样本X来自真实分布Pdata和生成分布Pg的可能性是相对比例;如果PdataX=0,PgX≠0,最优判别网络的概率0;如果PdataX=PgX,说明样本是真假的概率各占一半,最优判别网络的概率为0.5;将最优判别网络带入VD,G,进行简单变换最终到公式4;此时可以直观的看出生成对抗网络使用JS散度衡量真实分布与生成分布之间的距离,网路在优化JS散度时,相当于将生成分布Pg拉向真实分布Pdata,最终以假乱。在对抗机制下,Pg慢慢逼近Pdata,从而得到本方法所需的与输入样本相似的噪声。作为优选的技术方案,所述步骤S2具体包括:步骤三,提取一个批量上所有样本的方差,并将该批量上所有样本方差归一化,当前样本的方差vari与所有当前批量样本之和的比值就是自适应比例ratioi,将该自适应比例作为原样本的权重,将该1-ratioi作为步骤二中生成噪声的权重,生成新样本用公式表示为:当损失函数比较陡峭时,新样本中的噪声比例减小,避免损失函数越过最小值;当损失函数比较平坦时,新样本中的噪声比例增大,有助于加快网络的收敛速度。作为优选的技术方案,所述步骤三包括:输入样本与模型参数的关系的建立、模型参数与最小值的关系的建立、根据样本方差设计自适应比例。作为优选的技术方案,所述输入样本与模型参数的关系的建立具体为:假设第i个样本为Xi,经过一个线性模型后得到hθ,Xi;hθ,Xi=θTXi5其中,θ表示模型参数不包括输入样本,假设样本总数为N,i∈[1,N];采用DNN中常用的损失函数最小均方误差MSE,假设损失函数为fθ,X,fθ,X表示预测值hθ,Xi与真实值yi之间差值的平方,其中,系数12无限定意义,仅为了便于计算;在GD算法中,每次迭代都用到所有样本,参数更新如下:其中,j表示迭代次数,j≥0,η是一个超参数,根据具体应用,赋予其合适的常数值;在SGD中使用一个样本进行梯度更新,即中的N等于1,每一次更新参数使用一个样本;在样本量很大的情况下如几十万,那么可能只用其中几万条或者几千条的样本,就能够将θ迭代到最优解,SGD参数更新如下,θj+1=θj-ηgj10在模型训练时,SGD算法一般计算一个批量的梯度,此时将公式9中的gj写成公式11gB的形式,其中,是一个大小为M的mini-batch小批量;从公式9中可以看出由于那么gB是计算一个小批量上的gj,在数据集中所有样本独立同分布,那么模型参数θ的一阶导数方差vargi与样本Xi方差vari之间存在正比的关系,即那么DNN中通过卷积层和激活函数对输入样本进行变化,卷积操作可以看作是线性变化过程,激活函数虽然引入了一定的非线性,但是一般也是与输入样本成正比,所以vargB仍然近似正比于vari;以SGD为例,继续分析,SGD相当于通过一个小批量估计gB来估计数据集的梯度gN,由Chaudhari&Soatto定理可知,在回置抽样有放回的抽样中,大小为B的小批量的方差等于当损失函数接近最小值时,Dθ,X相当于Hessian矩阵的缩放版,即由于那么由于vargB≥0,在Dθ,X为的缩放版,时,作为优选的技术方案,所述模型参数与最小值的关系的建立具体为:为了更直观的分析最小值与模型参数的θ关系,引入三种局部平滑序列;假设θ*是为最小值时的模型参数,{θj}j≥0为参数更新过程,θ*的邻域为其中θ*的局部平滑序列定义为{Λθj}j≥0,如公式14所示,在{θj}j≥0中的前向邻域记为其中一个理想局部平滑序列为如公式15所示,在{θj}j≥0中的后向邻域记为其中一个预测局部平滑序列为{Lθj}j≥0,如公式16所示,Λθj控制θ*和θj之间的平滑度确保参数更新的收敛性,是一个理想局部平滑能够使θj快速移向θj+1,由于θ*和θj+1未知,Λθj和不能直接被计算,Lθj与θj、θj-1相关,通过预测平滑序列,从而构造预测噪声;当损失函数二阶连续可导,有下面公式,将Lθj的导数作为SGD等算法的自适应学习率,当Lθj大的时候,即大,学习率降低,每次更新的步长为学习率与的乘积,在不变的情况下,参数更新时的步长减小;当Lθj减小的时候,的值减小,学习率增大,参数更新时的步长增大;在每次迭代时,函数fθθ,Xi的平滑度Lθj与成反比,那么在整个网络的参数更新中,Lθ与成反比:当大时,由于损失函数变化剧烈,函数波形陡峭,参数更新时的步长减小;当由于函数变化缓慢,函数波形平坦,参数更新时步长增大。作为优选的技术方案,根据样本方差设计自适应比例具体为:由于与函数平滑度成反比,由于这里的vari≥0,可以将的绝对值去掉;下面提到的就是指去掉绝对值的Hessian矩阵;设计自适应比例为ratioi,将生成对抗网络生成的噪声与当前输入样本Xi融合生成新样本如公式18所示。ratioi由根据样本方差生成,当样本方差vari增大时,ratioi增大,的值增大,损失函数比较“陡峭”,由公式18可知噪声的权重为1-ratioi,即新样本根据vari自动调小噪声的比例,减小加到样本上的噪声,因为如果此时ratioi过大,那么参数更新时可能越过最小值点;在vari值减小时,ratioi减小,值减小,损失函数比较平坦,噪声的比例大,扰动大,参数更新时变化幅度大,有助于加速函数收敛;在一个批量大小为M上提取样本方差,为了消除样本幅度不一致带来的影响,将所有样本的方差归一化,即vari∈[0,1],i∈[1,2,…,M],并且将归一化后的样本方差相加得到假设当前输入样本是Xi,那么该样本权重为ratioi=varivar,该样本所添加的噪声的权重为1-ratioi;当样本噪声vari增大时,样本权重ratioi增大,噪声权重1-ratioi随之减小;当样本噪声vari减小时,样本权重ratioi减小,噪声权重1-ratioi随之增大;从而添加到样本中的噪声能能够根据样本方差自适应调节比例,有益于网络收敛到局部最小值。作为优选的技术方案,所述步骤S3具体包括:步骤四:由于步骤三中,自适应比例小于等于1,所以由噪声与原样本生成的新样本丢失一部分真实信息,此时将与Xi进行像素相加,为补充原样本信息,最终生成有益于提高DNN检测率的新样本本发明与现有技术相比,有益效果是:采用本方法无需大量采集图片,准确率高,得到的模型收敛度高,DNN的收敛速度快,而且计算过程简单,有效降低了训练难度。附图说明图1为基于生成对抗网络与自适应比例生成新样本的结构示意图;图2为图1中的自适应比例生成器模块的结构示意图。具体实施方式下面通过具体实施例对本发明的技术方案作进一步描述说明,使得本技术方案更加清楚、明白。本发明将噪声与梯度更新算法解耦,提出一个基于生成对抗网络与自适应比例生成新样本的方法,在输入样本原样本上直接添加由生成对抗网络生成的与原样本分布接近的噪声,得到新样本,新样本根据自适应比例调节噪声与原样本比重,在DNN损失函数陡峭时,增大原样本比例,减小噪声比例,避免DNN跨过最小值;在DNN损失函数平坦时,减小原样本比例,增大噪声比例,有利于加快DNN的收敛速度。本发明先根据输入样本在对抗机制下生成与原样本分布接近的噪声;然后根据样本方差构造自适应比例,将原样本与生成对抗网络生成的噪声以该比例进行融合生成新样本,并使用像素相加操作进一步为新生成的样本补充原样本信息。本实施例的内容可以结合附图1和附图2,可以更加直观来了解本发明的思路。为方便描述本实施例的内容,首先做以下术语定义:定义1基于生成对抗网络生成噪声的方法。假设输入样本Xi的分布为Pdata,生成网络利用若干卷积层将输入样本映射到低维隐变量空间,得到分布为PZZi的低维隐变量Zi,然后生成网络根据低维隐变量Zi生成分布为Pg新图片,该新图片就是本发明所需要添加到X上的噪声,用符号GX表示生成网路根据Xi生成新图片的过程;DX表示鉴别网络判断X来自于Pdata或Pg;训练鉴别网络时最大化拥有正确标签图片的概率;训练生成网络时,最小化log1-DGX,相当于使生成图片的分布越接近真实分布。用公式1表示如下所示。minGminDVD,GI其中,令VD,G关于DX的导数为0,有公式2。那么,最优判别网络如公式3所示。从公式3中可以看出,一个样本X来自真实分布Pdata和生成分布Pg的可能性是相对比例。如果PdataX=0,PgX≠0,最优判别网络的概率0;如果PdataX=PgX,说明样本是真假的概率各占一半,最优判别网络的概率为0.5。将最优判别网络带入VD,G,进行简单变换最终到公式4。此时可以直观的看出生成对抗网络使用JS散度衡量真实分布与生成分布之间的距离,网路在优化JS散度时,相当于将生成分布Pg拉向真实分布Pdata,最终以假乱。在对抗机制下,Pg慢慢逼近Pdata,从而得到本方法所需的与输入样本相似的噪声。定义2输入样本与模型参数的关系。假设第i个样本为Xi,经过一个线性模型后得到hθ,Xi。hθ,Xi=6TXi5其中,θ表示模型参数不包括输入样本,假设样本总数为N,i∈[1,N]。本发明以一般DNN中常用的损失函数:最小均方误差MSE为例,假设损失函数为fθ,X,fθ,X表示预测值hθ,Xi与真实值yi之间差值的平方。本发明将MSE损失函数乘以系数12是为了便于计算,对整个分析过程及分析方法并无影响。在GD算法中,每次迭代都用到所有样本,参数更新如下:其中,j表示迭代次数,j≥0,η为学习率,根据具体应用,赋予其合适的常数值。在SGD中使用一个样本进行梯度更新,即中的N等于1,每一次更新参数使用一个样本。在样本量很大的情况下如几十万,那么可能只用其中几万条或者几千条的样本,就能够将θ迭代到最优解。SGD参数更新如下。θj+1=θj-ηgj10在模型训练时,SGD算法一般计算一个批量的的梯度,此时将公式9中的gj写成公式11gB的形式。其中,是一个大小为M的mini-batch小批量。从公式9中可以看出由于那么gB是计算一个小批量上的gj,在数据集中所有样本独立同分布,那么模型参数θ的一阶导数方差vargi与样本Xi方差vari之间存在正比的关系,即那么DNN中通过卷积层和激活函数对输入样本进行变化,卷积操作可以看作是线性变化过程,激活函数虽然引入了一定的非线性,但是一般也是与输入样本成正比,所以vargB仍然近似正比于vari。以SGD为例,继续分析。SGD相当于通过一个小批量估计gB来估计数据集的梯度gN。由Chaudhari&Soatto定理可知,在回置抽样有放回的抽样中,大小为B的小批量的方差等于当损失函数接近最小值时,Dθ,X相当于Hessian矩阵的缩放版,即由于那么由于vargB≥0,在Dθ,X为的缩放版,时,定义3模型参数与最小值的关系。为了更直观的分析最小值与模型参数的θ关系,引入三种局部平滑序列。假设θ*是为最小值时的模型参数,{θj}j≥0为参数更新过程。θ*的邻域为其中θ*的局部平滑序列定义为{Λθj}j≥0,如公式14所示。在{θj}j≥0中的前向邻域记为其中一个理想局部平滑序列为如公式15所示。在{θj}j≥0中的后向邻域记为其中一个预测局部平滑序列为{Lθj}j≥0,如公式16所示。Λθj控制θ*和θj之间的平滑度确保参数更新的收敛性。是一个理想局部平滑能够使θj快速移向θj+1。由于θ*和θj+1未知,Λθj和不能直接被计算,Lθj与θj、θj-1相关,我们通过预测平滑序列,从而构造预测噪声。当损失函数二阶连续可导,有下面公式。将Lθj的导数作为SGD等算法的自适应学习率,当Lθj大的时候,即大,学习率降低,每次更新的步长为学习率与的乘积,在不变的情况下,参数更新时的步长减小。当Lθj减小的时候,的值减小,学习率增大,参数更新时的步长增大。在每次迭代时,函数fθθ,Xi的平滑度Lθj与成反比,那么在整个网络的参数更新中,Lθ与成反比:当大时,由于损失函数变化剧烈,函数波形陡峭,参数更新时的步长减小;当由于函数变化缓慢,函数波形平坦,参数更新时步长增大。定义4基于样本方差设计自适应比例的方法。由于与函数平滑度成反比,由于这里的varXi≥0,可以将的绝对值去掉。下面提到的就是指去掉绝对值的Hessian矩阵。本发明设计自适应比例为ratioi,将生成对抗网络生成的噪声与当前输入样本Xi融合生成新样本如公式18所示。ratioi由根据样本方差生成,当样本方差varXi增大时,ratioi增大,的值增大,损失函数比较“陡峭”,由公式18可知噪声的权重为1-ratioi,即新样本根据vari自动调小噪声的比例,减小加到样本上的噪声,因为如果此时ratioi过大,那么参数更新时可能越过最小值点。在vari值减小时,ratioi减小,值减小,损失函数比较平坦,噪声的比例大,扰动大,参数更新时变化幅度大,有助于加速函数收敛。本发明在一个批量大小为M上提取样本方差,为了消除样本幅度不一致带来的影响,将所有样本的方差归一化,即vari∈[0,1],i∈[1,2,…,M],并且将归一化后的样本方差相加得到假设当前输入样本是Xi,那么该样本权重为ratioi=varivar,该样本所添加的噪声的权重为1-ratioi。当样本噪声vari增大时,样本权重ratioi增大,噪声权重1-ratioi随之减小。当样本噪声vari减小时,样本权重ratioi减小,噪声权重1-ratioi随之增大。从而添加到样本中的噪声能能够根据样本方差自适应调节比例,有益于网络收敛到局部最小值。本方法的具体步骤如下:步骤一:生成对抗网络中的生成网络使用四个卷积层对输入高维样本X进行下采样操作,得到低维隐变量,再将低维隐变量经过四次相反的卷积操作,对隐变量进行上采样操作,将其映射回高维数据空间,得到与输入样本相似的噪声。步骤二:将输入样本和噪声共同送入生成对抗网络中的鉴别网络,鉴别网络与生成网络形成对抗机制,在二者的博弈过程中,噪声的分布与输入样本的分布越来越接近,最终生成网络与鉴别网络达到动态平衡,生成网络的输出就是本方法所需要的最终的噪声。步骤三:提取一个批量上所有样本的方差,并将该批量上所有样本方差归一化,当前样本的方差vari与所有当前批量样本之和的比值就是自适应比例ratioi,将该自适应比例作为原样本的权重,将该1-ratioi作为步骤二中生成噪声的权重,生成新样本当损失函数比较陡峭时,新样本中的噪声比例减小,避免损失函数越过最小值;当损失函数比较平坦时,新样本中的噪声比例增大,有助于加快网络的收敛速度。步骤四:步骤三中,自适应比例小于等于1,所以生成的新样本丢失一部分真实信息,此时将与Xi进行像素相加,为补充原样本信息,最终生成有益于提高DNN检测率的新样本以上为本发明的优选实施方式,并不限定本发明的保护范围,对于本领域技术人员根据本发明的设计思路做出的变形及改进,都应当视为本发明的保护范围之内。

权利要求:1.基于生成对抗网络与自适应比例生成新样本的方法,包括以下步骤:S1,在输入样本上直接添加由生成对抗网络生成的与输入样本分布接近的噪声;S2根据样本方差构造自适应比例,将输入样本与生成对抗网络生成的噪声以该比例进行融合生成新样本,新样本根据自适应比例调节噪声与输入样本比重;S3通过像素相加的操作为新样本补充输入样本信息,生成有益于提高DNN检测率的最终样本。2.根据权利要求1所述的基于生成对抗网络与自适应比例生成新样本的方法,其特征在于,所述步骤S1具体包括:步骤一,生成对抗网络中的生成网络使用四个卷积层对输入样本Xi进行下采样操作,得到低维隐变量,再将低维隐变量经过四次相反的卷积操作,对隐变量进行上采样操作,将其映射回高维数据空间,得到与输入样本相似的噪声;其中,Xi为输入样本,假设样本总数为N,i∈[1,N],N是一个有限的实数,其大小等于训练集中样本的总数,训练集确定下来后,N的大小也随之确定;例如:假设训练集中有10000图片,N的大小就是10000;步骤二,将输入样本与噪声共同送入生成对抗网络中的鉴别网络,鉴别网络与生成网络形成对抗机制,在二者的博弈过程中,噪声的分布与输入样本的分布越来越接近,最终生成网络与鉴别网络达到动态平衡,生成网络的输出就是所需要的最终的噪声。3.根据权利要求2所述的基于生成对抗网络与自适应比例生成新样本的方法,其特征在于,所述步骤一具体为:假设输入样本Xi的分布为Pdata,生成网络利用若干卷积层将输入样本映射到低维隐变量空间,得到分布为PZZi的低维隐变量Zi,然后生成网络根据低维隐变量Zi生成分布为Pg的新图片,该新图片就是本发明所需要添加到Xi上的噪声,用符号GX表示生成网路根据Xi生成新图片的过程;DX表示鉴别网络判断X来自于Pdata或Pg;训练鉴别网络时最大化拥有正确标签图片的概率;训练生成网络时,最小化log1-DGX,相当于使生成图片的分布越接近Pdata;用公式1表示如下所示;minGminDVD,G1其中,令VD,G关于DX的导数为0,有公式2;那么,最优判别网络如公式3所示;从公式3中可以看出,一个样本X来自真实分布Pdata和生成分布Pg的可能性是相对比例;如果PdataX=0,PgX≠0,最优判别网络的概率0;如果PdataX=PgX,说明样本是真假的概率各占一半,最优判别网络的概率为0.5;将最优判别网络带入VD,G,进行简单变换最终到公式4;此时可以直观的看出生成对抗网络使用JS散度衡量真实分布与生成分布之间的距离,网路在优化JS散度时,相当于将生成分布Pg拉向真实分布Pdata,最终以假乱。在对抗机制下,Pg慢慢逼近Pdata,从而得到本发明所需的与输入样本分布相似的噪声。4.根据权利要求1-3任一所述的基于生成对抗网络与自适应比例生成新样本的方法,其特征在于,所述步骤S2具体包括:步骤三,提取一个批量上所有样本的方差,并将该批量上所有样本方差归一化,当前样本的方差vari与所有当前批量样本之和的比值就是自适应比例ratioi,将该自适应比例作为输入样本的权重,将该1-ratioi作为步骤二中生成噪声的权重,生成新样本用公式表示为:当损失函数比较陡峭时,新样本中的噪声比例减小,避免损失函数越过最小值;当损失函数比较平坦时,新样本中的噪声比例增大,有助于加快网络的收敛速度。5.根据权利要求4所述的基于生成对抗网络与自适应比例生成新样本的方法,其特征在于,所述步骤三包括:输入样本与模型参数的关系的建立、模型参数与最小值的关系的建立、根据样本方差设计自适应比例。6.根据权利要求5所述的基于生成对抗网络与自适应比例生成新样本的方法,其特征在于,所述输入样本与模型参数的关系的建立具体为:假设第i个样本为Xi,经过一个线性模型后得到hθ,Xi;hθ,Xi=θTXi5其中,θ表示模型参数不包括输入样本,假设样本总数为N,i∈[1,N];采用DNN中常用的损失函数最小均方误差MSE,假设损失函数为fθ,X,fθ,X表示预测值hθ,Xi与真实值yi之间差值的平方,其中,系数12无限定意义,仅为了便于计算;在GD算法中,每次迭代都用到所有样本,参数更新如下:其中,j表示迭代次数,j≥0,η是一个超参数,根据具体应用,赋予其合适的常数值;在SGD中使用一个样本进行梯度更新,即中的N等于1,每一次更新参数使用一个样本;在样本量很大的情况下如几十万,那么可能只用其中几万条或者几千条的样本,就能够将θ迭代到最优解,SGD参数更新如下:θj+1=θj-ηgj10在模型训练时,SGD算法一般计算一个批量的梯度,此时将公式9中的gj写成公式11gB的形式,其中,是一个大小为M的mini-batch小批量;从公式9中可以看出||gj||∝||hθ,Xi||,由于||hθ,Xi||∝||Xi||,那么||gj||∝||Xi||,gB是计算一个小批量上的gj,gB∝gj;在数据集中所有样本独立同分布,那么模型参数θ的一阶导数方差vargi与样本Xi方差vari之间存在正比的关系,即vargj∝vari,那么vargB∝vari;DNN中通过卷积层和激活函数对输入样本进行变化,卷积操作可以看作是线性变化过程,激活函数虽然引入了一定的非线性,但是一般也是与输入样本成正比,所以vargB仍然近似正比于vari;以SGD为例,继续分析,SGD相当于通过一个小批量估计gB来估计数据集的梯度gN,由Chaudhari&Soatto定理可知,在回置抽样有放回的抽样中,大小为B的小批量的方差等于当损失函数接近最小值时,Dθ,X相当于Hessian矩阵的缩放版,即由于vargB∝vari,那么由于vargB≥0,在Dx为的缩放版,时,7.根据权利要求5所述的基于生成对抗网络与自适应比例生成新样本的方法,其特征在于,所述模型参数与最小值的关系的建立具体为:为了更直观的分析最小值与模型参数的θ关系,引入三种局部平滑序列;假设θ*是为最小值时的模型参数,{θj}j≥0为参数更新过程,θ*的邻域为其中θ*的局部平滑序列定义为{Λ{θj}j≥0,如公式14所示,在{θj}j≥0中的前向邻域记为其中一个理想局部平滑序列为如公式15所示,在{θj}j≥0中的后向邻域记为其中一个预测局部平滑序列为{Lθj}j≥0,如公式16所示,Λθj控制θ*和θj之间的平滑度确保参数更新的收敛性,是一个理想局部平滑能够使θj快速移向θj+1,由于θ*和θj+1未知,Λθj和不能直接被计算,Lθj与θj、θj-1相关,通过预测平滑序列,从而构造预测噪声;当损失函数二阶连续可导,有下面公式,将Lθj的导数作为SGD等算法的自适应学习率,当Lθj大的时候,即大,学习率降低,每次更新的步长为学习率与的乘积,在不变的情况下,参数更新时的步长减小;当Lθj减小的时候,的值减小,学习率增大,参数更新时的步长增大;在每次迭代时,函数fθθ,Xi的平滑度Lθj与成反比,那么在整个网络的参数更新中,Lθ与成反比:当大时,由于损失函数变化剧烈,函数波形陡峭,参数更新时的步长减小;当小时,由于函数变化缓慢,函数波形平坦,参数更新时步长增大。8.根据权利要求5所述的基于生成对抗网络与自适应比例生成新样本的方法,其特征在于,根据样本方差设计自适应比例具体为:由于与函数平滑度成反比,由于这里的vari≥0,可以将的绝对值去掉;下面提到的就是指去掉绝对值的Hessian矩阵;设计自适应比例为ratioi,将生成对抗网络生成的噪声与当前输入样本Xi融合生成新样本如公式18所示。ratioi由根据样本方差生成,当样本方差vari增大时,ratioi增大,的值增大,损失函数比较“陡峭”,由公式18可知噪声的权重为1-ratioi,即新样本根据vari自动调小噪声的比例,减小加到样本上的噪声,因为如果此时ratioi过大,那么参数更新时可能越过最小值点;在vari值减小时,ratioi减小,值减小,当损失函数比较平坦,噪声的比例大,扰动大,参数更新时变化幅度大,有助于加速函数收敛;在一个批量大小为M上提取样本方差,为了消除样本幅度不一致带来的影响,将所有样本的方差归一化,即vari∈[0,1],i∈[1,2,…,M],并且将归一化后的样本方差相加得到假设当前输入样本是Xi,那么该样本权重为ratioi=varivar,该样本所添加的噪声的权重为1-ratioi;当样本噪声vari增大时,样本权重ratioi增大,噪声权重1-ratioi随之减小;当样本噪声vari减小时,样本权重ratioi减小,噪声权重1-ratioi随之增大;从而添加到样本中的噪声能能够根据样本方差自适应调节比例,有益于网络收敛到局部最小值。9.根据权利要求4所述的基于生成对抗网络与自适应比例生成新样本的方法,其特征在于,所述步骤S3具体包括:步骤四:由于步骤三中,自适应比例小于等于1,所以由噪声与输入样本生成的新样本丢失一部分真实信息,此时将与Xi进行像素相加,为补充输入样本信息,最终生成有益于提高DNN检测率的新样本

百度查询: 杭州电子科技大学 基于生成对抗网络与自适应比例生成样本图片的方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。