Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 重庆师范大学李明勇获国家专利权

重庆师范大学李明勇获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉重庆师范大学申请的专利基于图卷积语义增强的自监督跨模态哈希检索方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN117093730B

龙图腾网通过国家知识产权局官网在2025-07-11发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310770096.9,技术领域涉及:G06F16/43;该发明授权基于图卷积语义增强的自监督跨模态哈希检索方法是由李明勇;胡晋宇;黎想;季煜程设计研发完成,并于2023-06-27向国家知识产权局提交的专利申请。

基于图卷积语义增强的自监督跨模态哈希检索方法在说明书摘要公布了:本发明公开了基于图卷积语义增强的自监督跨模态哈希检索方法,通过自监督语义生成模块来计算跨模态的多标签语义亲和力矩阵;通过图卷积语义增强模块以挖掘隐藏在标签中的信息,以增强哈希表示并弥合不同模态之间的信息差距。我们提出了基于图卷积语义增强的自监督跨模态哈希检索方法,它具有以下优点,我们通过使用GCN语义增强模块学习标签中隐含的信息,表示为增强语义特征。并使用GCN语义增强模块合并图像和文本提取的特征。此外,我们比较两个不同的损失函数以使我们的方法最优。四个基准数据集的广泛实验结果表明,我们的GCSEH方法优于当前最先进的跨模态哈希方法。

本发明授权基于图卷积语义增强的自监督跨模态哈希检索方法在权利要求书中公布了:1.基于图卷积语义增强的自监督跨模态哈希检索方法,其特征在于:具体步骤包括: 步骤S101:通过自监督语义生成模块来计算跨模态的多标签语义亲和力矩阵; 步骤S102:通过图卷积语义增强模块以挖掘隐藏在标签中的信息,以增强哈希表示并弥合不同模态之间的信息差距; 步骤S103:通过哈希学习模块可以提高挖掘跨模态数据之间语义相关性的能力; 步骤S104:采用交替学习策略来优化ImagNet特征参数和TxtNet特征参数以及LabelNET特征参数和哈希码; 步骤S105:学习的过程使用随机梯度下降的方法来更新深度神经网络参数; 所述步骤S101中,为了更好地保持语义亲和力,监督学习使用多标签数据的哈希码,充分利用了多标签语义信息,并使用多标签语义亲和力保持模块进行跨模态哈希方法,定义了余弦相似度来计算跨模态的多标签语义亲和力矩阵,函数定义为: 继前面的许多跨模式哈希方法之后,原始实例的特征被映射到一个共同的哈希表示和通过基于卷积的方法或深度神经网络方法,同时,将原始实例的特征映射到一个共同的哈希表示和用点积的方法融合和和的信息,缩小不同模态之间的语义差距,并生成新的哈希码,需要注意的是,在工作中,采用余弦语义相似度来表示Fi和Gj的语义相似度,函数定义为: 其中是Fi和Gj之间哈希表示的余弦相似度,显然的是多标签语义亲和矩阵Pvt和哈希表征有不同的取值范围,为了解决这个问题,使用Relu激活函数进行转换; 所述步骤S103中,使用两种损失函数来证明图卷积语义增强模块的有效性,同时模态间损失Linter、模态内损失Lintra和量化损失Qquantization来约束相似性实例之间的相似性; 在研究中,每个训练数据输入都由图像、文本和多标签实例组成,在学习它们对应的哈希表示时,为了能够处理不同的模态间和模态内的问题,应该保持它们的语义亲和性,公式如下: 用于最小化Vi和Lj的和之间的差异,表示模态间多标签语义亲和力保留损失,其中α是一个超参数; 接下来,模态内语义亲和力保留损失定义为: 其中用于最小化和之间的差异Vi和Vj,这里使用上标来区分不同的模态; 为了衡量学习到的二进制哈希码H与真实哈希码之间的误差,采用量化损失B,定义量化损失如下: 最后,的目标函数是: 其中θv、θt和θl是ImagNet、TxtNet和LabelNET的参数,β和γ是超参数;为了加强网络中哈希函数的学习,构建了一个记忆库用于存储所有训练数据的最新哈希表示,这可以提高挖掘跨模态数据之间语义相关性的能力。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人重庆师范大学,其通讯地址为:401331 重庆市沙坪坝区大学城中路37号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。