申请/专利权人:江苏理工学院
申请日:2021-04-14
公开(公告)日:2021-07-16
公开(公告)号:CN113129420A
主分类号:G06T15/06(20110101)
分类号:G06T15/06(20110101)
优先权:
专利状态码:有效-授权
法律状态:2023.06.23#授权;2021.08.03#实质审查的生效;2021.07.16#公开
摘要:本发明公开了一种基于深度缓冲加速的光线追踪渲染方法,其技术方案要点是:包括光栅化和光线追踪;所述光栅化具体包括以下步骤:S1.建立图像Result、纹理Texture:建立图像Result用于保存最终图像,建立纹理Texture用于存储碰撞点位置与相应位置材质信息;S2.计算深度值:根据场景信息计算纹理Texture与图像Result中对应像素位置的深度值,并将深度值线性变换至[0,1]范围内;S3.处理图像中背景位置颜色:对于任意一个深度值为1的像素点,该深度值为超出距离上限的像素点,根据场景的背景处理该位置颜色并保存至Result中对应位置;本方法利用光栅化管线中深度缓冲加速光线追踪技术,为局部光照与全局光照两者结合提供了新的可能。
主权项:1.一种基于深度缓冲加速的光线追踪渲染方法,其特征在于:包括光栅化和光线追踪;所述光栅化具体包括以下步骤:S1.建立图像Result、纹理Texture:建立图像Result用于保存最终图像,建立纹理Texture用于存储碰撞点位置与相应位置材质信息;S2.计算深度值:根据场景信息计算纹理Texture与图像Result中对应像素位置的深度值,并将深度值线性变换至[0,1]范围内;S3.处理图像中背景位置颜色:对于任意一个深度值为1的像素点,该深度值为超出距离上限的像素点,根据场景的背景处理该位置颜色并保存至Result中对应位置;S4.将深度值转换为碰撞点位置Point,并存储至Texture:对于任意一个深度值位于[0,1的像素,该深度值即对应于从视点出发追踪的光线与场景的第一个碰撞点的位置,记深度值对应的场景中碰撞点位置为Point,将碰撞点位置Point与对应位置材质信息储存至Texture中;所述光线追踪具体包括:对于任意一个Texture中深度值不为1的像素,执行以下步骤:S5.循环执行S6至S8,直至达到最大光线深度或过低贡献值预设的结束条件;S6.计算光线散射方向:根据材质信息计算Point位置处光线散射方向;S7.计算Point对图像贡献,并存储至Result:计算Point处阴影光线,并计算碰撞点Point对像素的贡献,将颜色值记录到图像Result中;S8.计算下一个碰撞点,并替换Texture中信息:计算该散射方向上与最近的有效物体的碰撞点,并以其信息替换纹理Texture中对应碰撞点位置Point与对应位置材质的信息。
全文数据:
权利要求:
百度查询: 江苏理工学院 一种基于深度缓冲加速的光线追踪渲染方法
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。