买专利,只认龙图腾
首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

【发明公布】基于有监督对比学习的跨模态视频-文本哈希检索方法_南京理工大学_202311698236.2 

申请/专利权人:南京理工大学

申请日:2023-12-12

公开(公告)日:2024-03-22

公开(公告)号:CN117743639A

主分类号:G06F16/783

分类号:G06F16/783;G06F16/75;G06V20/40;G06V10/764;G06V10/774;G06V10/82;G06F16/35;G06F18/214;G06F18/2415;G06F40/30;G06N3/0455;G06N3/0895

优先权:

专利状态码:在审-实质审查的生效

法律状态:2024.04.09#实质审查的生效;2024.03.22#公开

摘要:本发明公开了一种基于有监督对比学习的跨模态视频‑文本哈希检索方法,该方法为:使用时间一致性的空间增强方法对视频数据进行增强,使用EDA方法对文本数据进行增强,获得所有数据点对应的增强样本;分别使用双向Transformer自动编码器对视频和文本进行编码,将Transformer输出的特征输入到哈希层中得到视频和文本的哈希码;利用标签信息设计多模态对比学习,定义和锚点具有相同标签的数据点为正样本,和锚点标签不相同的数据点为负样本,分别在视频和文本模态间和模态内设计有监督多模态对比损失,并加入分类损失、量化损失和平衡损失,对模型进行训练之后,进行跨模态视频‑文本检索。本发明提高了从大数据中检索视频的效率和准确性。

主权项:1.一种基于有监督对比学习的跨模态视频-文本哈希检索方法,其特征在于,该方法包括以下步骤:步骤1、使用时间一致性的空间增强方法对视频数据进行增强,使用EDA方法对文本数据进行增强,获得所有数据点对应的增强样本;步骤2、分别使用双向Transformer自动编码器对视频和文本进行编码,将双向Transformer自动编码器输出的特征输入到哈希层中得到视频和文本的哈希码;步骤3、利用标签信息设计多模态对比学习,定义和锚点具有相同标签的数据点为正样本,和锚点标签不相同的数据点为负样本,然后设计多模态有监督对比损失,缩小锚点与正样本的距离,并扩大锚点与负样本的距离;步骤4、加入分类损失、量化损失和平衡损失,确定总体目标函数,对双向Transformer自动编码器进行训练;步骤5、使用训练好的双向Transformer自动编码器,进行跨模态视频-文本检索。

全文数据:

权利要求:

百度查询: 南京理工大学 基于有监督对比学习的跨模态视频-文本哈希检索方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

-相关技术