申请/专利权人:济南大学
申请日:2023-12-11
公开(公告)日:2024-04-12
公开(公告)号:CN117540043B
主分类号:G06F16/58
分类号:G06F16/58;G06N3/0464;G06N3/045;G06N3/08
优先权:
专利状态码:有效-授权
法律状态:2024.04.12#授权;2024.03.01#实质审查的生效;2024.02.09#公开
摘要:本发明公开了基于跨实例和类别对比的三维模型检索方法及系统;获取查询图像、查询图像的掩码图以及三维模型集合,对查询图像进行图像增强得到若干个增强后的查询图像;将增强后的查询图像、查询图像的掩码图、三维模型的多视图均输入到训练后的三维模型检索网络中,输出三维模型检索结果;三维模型检索网络将增强后的查询图像和查询图像的掩码图,均输入到第一卷积神经网络中,输出查询图像的特征表示;将三维模型的多视图输入到第二卷积神经网络中,输出三维模型每个视图的特征表示,将三维模型所有视图的特征表示进行加权求和,得到三维模型的特征表示;将所获得的特征表示均输入到分类器中,输出查询图像所对应的三维模型。
主权项:1.基于跨实例和类别对比的三维模型检索方法,其特征是,包括:获取查询图像、查询图像的掩码图以及三维模型集合,每个三维模型均设有三维模型的多视图;对查询图像进行图像增强得到若干个增强后的查询图像;将增强后的查询图像、查询图像的掩码图、三维模型的多视图均输入到训练后的三维模型检索网络中,输出三维模型检索结果;其中,训练后的三维模型检索网络,用于:将增强后的查询图像和查询图像的掩码图,均输入到第一卷积神经网络中,输出查询图像的特征表示;将三维模型的多视图输入到第二卷积神经网络中,输出三维模型每个视图的特征表示,将三维模型所有视图的特征表示进行加权求和,得到三维模型的特征表示;将查询图像的特征表示和三维模型的特征表示,均输入到分类器中,训练后的分类器输出查询图像所对应的三维模型;其中,训练后的三维模型检索网络,总损失函数为第一、第二和第三损失函数的求和结果;第一损失函数用于缩小查询图像与三维模型之间的距离;第二损失函数用于缩小增强后的查询图像与其他增强后的查询图像之间的距离;第三损失函数用于增大不同实例三维模型之间的距离。
全文数据:
权利要求:
百度查询: 济南大学 基于跨实例和类别对比的三维模型检索方法及系统
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。