申请/专利权人:上海海事大学
申请日:2021-08-11
公开(公告)日:2024-03-22
公开(公告)号:CN113592021B
主分类号:G06V10/75
分类号:G06V10/75;G06V10/774;G06V10/80;G06V10/82;G06N3/0464;G06N3/047;G06N3/08
优先权:
专利状态码:有效-授权
法律状态:2024.03.22#授权;2021.11.19#实质审查的生效;2021.11.02#公开
摘要:本发明公开了一种基于可变形和深度可分离卷积的立体匹配方法,包括:将左图像和右图像输入至可变形特征提取网络模型提取有效特征,所述左图像和所述右图像分别为双目视觉相机所得到的两个图像;将所述有效特征通过级联操作,融合后获得成本量;将所述成本量输入至深度可分离3DCNN网络模型,学习不同尺度、位置和形态的特征,聚合有效信息,得到3DCNN网络学习后的图像;使用上采样将3DCNN网络学习到的图像还原到原始图像大小;使用softmax函数对还原后的图像进行视差回归预测,输出视差图。应用本发明实施例,自适应物体特征形变,扩大有效感受野,减少信息损失;深度可分离卷积,融入学习网络,减少3DCNN带来的巨大参数,减少运算量。
主权项:1.一种基于可变形和深度可分离卷积的立体匹配方法,其特征在于,包括:将左图像和右图像输入至可变形特征提取网络模型提取有效特征,所述左图像和所述右图像分别为双目视觉相机所得到的两个图像;将所述有效特征通过级联操作,融合后获得成本量;将所述成本量输入至深度可分离3DCNN网络,学习不同尺度、位置和形态的特征,聚合有效信息,得到3DCNN网络学习后的图像;使用上采样将3DCNN网络学习后的图像还原成所述左图像的尺寸,所述左图像和所述右图像的尺寸相同;使用softmax函数对还原后的图像进行视差回归预测,输出视差图;对立体匹配整体网络进行迭代训练,训练过程中使用联合损失函数:L=LL1+λLLog-cosh其中,LL1为平滑L1损失函数,LLog-cosh为Log-cosh损失函数,λ为LLog-cosh的权重,所述立体匹配整体网络包括:可变形特征提取网络模型和3DCNN网络;LL1为smooth_loss: LLog-cosh为Log-cosh_loss: 其中,N为标记的像素个数,d为背景真值,为预测视差值;可变形卷积和可变形卷积核输出像素为: 有效感受野为: 其中,I表示图像,W表示卷积核,i,j代表采样位置,k代表卷积核位置,m代表第m个卷积核,n表示每一层的索引,Δj表示采样位置j的偏移量,Δk表示卷积核位置k的偏移量。
全文数据:
权利要求:
百度查询: 上海海事大学 一种基于可变形和深度可分离卷积的立体匹配方法
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。