东南大学赵立业获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉东南大学申请的专利基于多任务深度学习网络的螺旋麦克风阵列的声成像方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119165446B 。
龙图腾网通过国家知识产权局官网在2025-05-30发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411672346.6,技术领域涉及:G01S5/20;该发明授权基于多任务深度学习网络的螺旋麦克风阵列的声成像方法是由赵立业;高昂;杨睿;刘星佑;梁瑞宇;王青云设计研发完成,并于2024-11-21向国家知识产权局提交的专利申请。
本基于多任务深度学习网络的螺旋麦克风阵列的声成像方法在说明书摘要公布了:本发明公开了一种基于多任务深度学习网络的螺旋麦克风阵列的声成像方法。通过短时傅里叶变换STFT,将麦克风阵列捕获的音频信号转为频谱图,提取其实部和虚部作为特征输入。这些特征分别输入到双流结构的双注意力网络中,以自适应方式融合局部和全局特征。之后,两路输出融合并通过卷积层及双向门控循环单元Bi‑GRU层进一步处理。通过两个全连接层分别计算声源位置和声压分布。最后,成像模块将声压分布信息与摄像头图像结合,生成直观的声像图。本发明通过引入频谱图的实部和虚部分量作为特征输入的双流结构,并分别结合双注意力网络模块,实现了在较少阵元条件下进行实时声源定位与成像,并且具备较高的空间分辨率和较强的抗干扰能力。
本发明授权基于多任务深度学习网络的螺旋麦克风阵列的声成像方法在权利要求书中公布了:1.基于多任务深度学习网络的螺旋麦克风阵列的声成像方法,其特征在于,包括以下步骤:1利用STFT将螺旋麦克风阵列采集的音频信号转换为频谱图,并分别提取频谱图的实部分量和虚部分量作为特征输入;首先,从12个麦克风获取的音频信号中,使用2F点的STFT提取频谱图;在提取过程中,采用长度为2F的汉明窗,并设置50%的重叠率;所提取的虚部和幅度分量分别作为各自对应的双注意力网络模块的特征输入,其维度表示为T×F×M,其中T表示时间帧的数量,F表示正频率分量的数量,M表示麦克风的数量;2将实部分量和虚部分量分别输入各自的双注意力网络模块,通过残差块、多频谱注意力模块与帧注意力模块自适应地融合局部特征与全局依赖关系;所述的双注意力网络模块将经过残差块处理后的特征图分别输入给多频谱注意力模块与帧注意力模块;多频谱注意力模块用于建模不同频率点之间的相互作用以及不同麦克风捕捉到的信号之间的相关性;帧注意力模块用于捕捉不同时间点之间的相互依赖关系;最后,通过元素级求和的方式将两个注意力模块的输出融合在一起;所述帧注意力模块的结构如下:输入的特征图A尺寸为T×F×M,其中T表示时间帧的数量,F表示正频率分量的数量,M表示麦克风的数量;首先,特征图A直接生成三个新的特征图B、C、D,这三个新特征图的尺寸同样是T×F×M;然后将特征图B重塑为F*M×T的二维矩阵,特征图C重塑为T×F*M的二维矩阵;之后,将B和C进行矩阵乘法操作并应用softmax函数计算得到注意力矩阵X,尺寸为T×T;再之后将注意力矩阵X与尺寸重塑为T×F*M的特征图D进行矩阵乘法运算,将结果再重塑回T×F×M的形状;随后,乘以一个尺度参数β,与原特征图A并执行逐元素加法操作,得到最终的输出特征图E;3将实部流和虚部流的双注意力网络模块输出特征图进行拼接融合,并通过后续的卷积层和Bi-GRU层进一步提取深层次特征;4通过两个全连接层分别提取声源位置与声压分布信息;5最后将声压分布信息与摄像头拍摄的图像整合在一起,生成可视化结果。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人东南大学,其通讯地址为:211189 江苏省南京市江宁区东南大学路2号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。