华南理工大学高英获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉华南理工大学申请的专利一种动态多视图融合的语音伪造鉴别方法及装置获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119864055B 。
龙图腾网通过国家知识产权局官网在2025-06-10发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202510355281.0,技术领域涉及:G10L25/51;该发明授权一种动态多视图融合的语音伪造鉴别方法及装置是由高英;蒋成龙;陈冲;林菁;刘鑫设计研发完成,并于2025-03-25向国家知识产权局提交的专利申请。
本一种动态多视图融合的语音伪造鉴别方法及装置在说明书摘要公布了:本发明公开了一种动态多视图融合的语音伪造鉴别方法及装置。所述方法包括以下步骤:根据原始语音信号,获取多视图动态特征数据,构建多视图数据集;采用动态权重聚类集成算法对多视图数据集中的数据进行聚类,生成伪标签;将伪标签与多视图动态特征数据整合,得到第一增强数据集,训练K近邻分类器;利用训练好的K近邻分类器对需要鉴别的语音信号中原始语音信号之外的未见数据点进行预测。本发明采用无监督学习挖掘多视角语音信息,解决了现有方法在泛化、鲁棒及特征利用上的不足。本发明在多数据集上性能卓越,关键指标显著提升,面对不同伪造数据点泛化与鲁棒性强,为语音深度伪造检测提供新路径。
本发明授权一种动态多视图融合的语音伪造鉴别方法及装置在权利要求书中公布了:1.一种动态多视图融合的语音伪造鉴别方法,其特征在于,包括以下步骤:S1、根据原始语音信号,获取多视图动态特征数据,构建多视图数据集;S2、采用动态权重聚类集成算法对多视图数据集中的数据进行聚类,生成伪标签;包括如下步骤:S2.1、基于信息熵调整多视图数据集中各视图的权重;S2.2、构建融合各视图的相似性信息的超图;构建融合各视图的相似性信息的超图,具体如下:首先进行多视图聚类,多视图数据集为,表示第个视图;对多视图数据集中的数据分别进行次聚类后,得到一组聚类划分,其中代表第个聚类成员,每个聚类成员由多个聚类子集组成,记作,其中为表示第次聚类划分中聚类子集的总数,表示第个聚类成员中的第个聚类子集;对多视图数据集中的数据点进行统一编号,融合多视图相似性,具体如下: 其中,表示多视图数据集中的第个数据点和第个数据点之间的相似度;表示多视图数据集中第个视图的权重;在第个视图的聚类过程中,第个数据点会被归入一个聚类子集中,该聚类子集中的所有特征共同构成第个数据点在第个视图下的特征集合;表示在第个视图中,第个数据点所属的特征集合与第个数据点所属的特征集合之间的相似度;表示跨视图一致性系数;表示第个数据点的特征向量和第个数据点的特征向量之间的余弦相似度;S2.3、基于步骤S2.2中的超图,利用谱聚类生成元聚类组:先构建超图的拉普拉斯矩阵并对拉普拉斯矩阵进行特征分解,得到特征值;接着通过特征值间隙法自动确定最佳簇数,选取前个最小特征值对应的特征向量组成矩阵,将矩阵每行视为新数据点,用K-均值聚类算法聚类得到元聚类组;S2.4、计算多视图数据集中的数据点到元聚类组的分数,确定伪标签,具体如下:通过距离度量法,计算数据点到元聚类组内所有数据点的平均欧氏距离,得到数据点到元聚类组的分数,再依据最小距离法,取距离最小的元聚类组标签来确定数据点的伪标签;S3、将伪标签与多视图动态特征数据整合,得到第一增强数据集,训练K近邻分类器;S4、利用训练好的K近邻分类器对需要鉴别的语音信号中原始语音信号之外的未见数据点进行预测。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人华南理工大学,其通讯地址为:510640 广东省广州市天河区五山路381号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。