申请/专利权人:南昌虚拟现实研究院股份有限公司
申请日:2024-01-31
公开(公告)日:2024-03-12
公开(公告)号:CN117689705A
主分类号:G06T7/521
分类号:G06T7/521;G06N3/0464;G06N3/08
优先权:
专利状态码:在审-实质审查的生效
法律状态:2024.03.29#实质审查的生效;2024.03.12#公开
摘要:本申请实施例提供的一种基于深度学习条纹结构光深度重建方法及装置,所述方法包括:采集样本图像,每个样本图像包括多个频率的条纹图像;计算每个频率的条纹图像的包裹相位正弦值、余弦值、包裹相位值和绝对相位值;设计包裹相位神经网络模型和绝对神经网络模型;采集待测图像,通过所述包裹相位神经网络模型和绝对神经网络模型推理得到拟合绝对相位值;将所述拟合绝对相位值进行处理得到图像条纹级数,然后利用所述图像条纹级数和包裹相位值重新计算得到最终绝对相位:将所述最终绝对相位进行深度信息拟合,得到深度值。通过本申请实施例可以有效缩短条纹图像的采集时间,并通过后处理保障了绝对相位精度。
主权项:1.一种基于深度学习条纹结构光深度重建方法,其特征在于,包括:采集多组样本图像,每组样本图像包括多个不同频率的条纹图像;计算每个频率条纹图像的包裹相位正弦值和包裹相位余弦值,根据每个频率条纹图像的包裹相位正弦值和包裹相位余弦值计算每个频率条纹图像的包裹相位值,根据每个频率条纹图像的包裹相位值计算每组样本图像的包裹相位绝对值;将所述每个频率条纹图像的包裹相位正弦值和包裹相位余弦值作为包裹相位神经网络模型的监督量,根据所述每个频率条纹图像的包裹相位正弦值和包裹相位余弦值设计第一损失函数对所述包裹相位神经网络模型进行训练直到收敛;将每组样本图像的包裹相位绝对值作为监督量,根据所述每组样本图像的包裹相位绝对值设计第二损失函数对所述包裹相位绝对神经网络模型进行训练直到收敛;采集待测图像,通过训练收敛后的所述包裹相位神经网络模型对所述待测图像推理得到待测图像的每个频率条纹图像的包裹相位正弦值和包裹相位余弦值,根据待测图像的每个频率条纹图像的包裹相位正弦值和包裹相位余弦值计算待测图像的每个频率条纹图像的包裹相位值:将所述待测图像的每个频率条纹图像包裹相位值输入到训练收敛后的包裹相位绝对神经网络模型中,推理得到待测图像的每个频率条纹图像的拟合绝对相位值;根据所述待测图像的每个频率条纹图像的拟合绝对相位值得到待测图像的每个频率条纹图像的条纹级数,然后利用所述待测图像的每个频率条纹图像的条纹级数和包裹相位值计算所述待测图像的最终包裹绝对相位值;将所述待测图像的最终绝对相位值进行深度信息拟合,得到待测图像的深度值。
全文数据:
权利要求:
百度查询: 南昌虚拟现实研究院股份有限公司 一种基于深度学习条纹结构光深度重建方法及装置
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。