申请/专利权人:中国计量大学
申请日:2021-02-01
公开(公告)日:2024-04-05
公开(公告)号:CN113362462B
主分类号:G06T17/20
分类号:G06T17/20;G06V10/774;G06V10/82;G06N3/0464;G06N3/09;G06V10/75
优先权:
专利状态码:有效-授权
法律状态:2024.04.05#授权;2021.09.24#实质审查的生效;2021.09.07#公开
摘要:本申请涉及一种基于自监督学习的双目立体视觉视差滤波方法和装置,包括:步骤1:在待处理图像上取一个像素点P,以所述像素点P为中心取一块矩形区域,将所述像素点P的坐标加上偏移量d,得到像素点M,以所述像素点M为中心在同一幅图像上取同样大小的一块矩形区域;步骤2:重复步骤1,得到两个矩形区域作为一对训练样本,取d1作为该样本对的标签;步骤3:重复步骤1和步骤2,得到一定数量的训练样本对和对应标签;步骤4:将步骤3所述训练样本对和对应标签输入卷积神经网络模型,计算损失函数,得到所述卷积神经网络模型;步骤5:判断两个样本对是否为匹配,如果不匹配,将所述像素认定为噪点进行滤除。
主权项:1.一种基于自监督学习的双目立体视觉视差滤波方法,其特征在于,包括:步骤1:在待处理图像上取一个像素点P,以所述像素点P为中心取一块矩形区域,将所述像素点P的坐标加上偏移量d,得到像素点M,以所述像素点M为中心在同一幅图像上取同样大小的一块矩形区域,其中,所述待处理图像为通过双目相机采集到的左图和右图,所述的坐标偏移量d为二维向量,包含水平偏移量d1和垂直偏移量d2;步骤2:重复步骤1,得到两个矩形区域作为训练样本对,取步骤1所述的水平偏移量d1作为该样本对的标签;步骤3:将步骤1和步骤2重复多次,得到一定数量的训练样本对和对应的标签;步骤4:利用步骤3所述训练样本对和对应的标签训练卷积神经网络模型,计算损失函数,得到所述卷积神经网络模型,所述损失函数为 其中,d0为水平偏移量阈值,λ为权重,Lmatch为交叉熵损失函数,Ld为欧几里得损失函数;步骤5:通过立体匹配算法得到所述待处理图像左图每个像素点在右图中的匹配点,以两个所述匹配点为中心,分别在左图和右图各取一矩形区域形成样本对,将所述样本对输入卷积神经网络模型,得到该样本对是否匹配,如果不匹配,将所述像素认定为噪点进行滤除。
全文数据:
权利要求:
百度查询: 中国计量大学 一种基于自监督学习的双目立体视觉视差滤波方法和装置
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。