买专利,只认龙图腾
首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

【发明授权】基于虚拟现实的视频拍摄方法和装置_深圳市掌网科技股份有限公司_201710210901.7 

申请/专利权人:深圳市掌网科技股份有限公司

申请日:2017-03-31

公开(公告)日:2021-04-27

公开(公告)号:CN108668050B

主分类号:H04N5/222(20060101)

分类号:H04N5/222(20060101);H04N5/232(20060101);H04N5/272(20060101)

优先权:

专利状态码:有效-授权

法律状态:2021.04.27#授权;2018.11.09#实质审查的生效;2018.10.16#公开

摘要:本发明实施例公开了一种基于虚拟现实的视频拍摄方法和装置。该视频拍摄方法通过向用户展示道具模型,然后,获取用户与道具模型的互动信息,并基于该互动信息,获取对应的虚拟场景,再实时将该互动信息与对应的虚拟场景进行融合,以输出目标视频。该方案通过虚拟现实的方式向用户展示预先构建的道具模型,以提高用户的互动信息、道具模型、与虚拟场景三者之间的契合度,提升了拍摄效率。

主权项:1.一种基于虚拟现实的视频拍摄方法,其特征在于,包括:建立道具模型的状态数据库;向用户展示所述道具模型的原始状态;基于所述用户的肢体动作,在所述状态数据库中生成对应的应对状态,包括:获取用户的肢体动作所产生的力度信息、以及用户肢体相对于所述道具模型特定部位的角度信息和位置信息;对获取的信息进行解析并通过相关算法处理后,得到所述道具模型的展示参数信息;基于所述展示参数信息生成所述道具模型的应对状态;向所述用户展示所述道具模型的应对状态;获取所述用户与所述道具模型的互动信息,所述互动信息包括:所述用户与所述道具模型进行互动时各自呈现的动作信息、表情信息、形态信息、语言信息和位置信息;基于所述互动信息,获取对应的虚拟场景;将所述互动信息画面化,以得到所述用户与所述道具模型的互动画面;实时将所述互动画面与对应的虚拟场景进行融合,以输出目标视频。

全文数据:基于虚拟现实的视频拍摄方法和装置技术领域[0001]本发明涉及虚拟现实技术领域,尤其涉及一种基于虚拟现实的视频拍摄方法和装置。背景技术[0002]VRVirtualReality,即虚拟现实,也称灵境技术或人工环境是一项综合集成技术,涉及计算机图形学、人机交互技术、传感技术、人工智能等领域。它利用三维图形生成技术、多传感交互技术以及高分辨显示技术,生成三维逼真的虚拟环境。使用者只要戴上特殊的头盔、数据手套等传感设备就可以感受到真实的视、听、嗅觉等感觉。或利用键盘、鼠标等输入设备,便可以进入虚拟空间,成为虚拟环境的一员,进行实时交互,感知和操作虚拟世界中的各种对象,从而获得身临其境的感受和体会。VR是人们通过计算机对复杂数据进行可视化操作与交互的一种全新方式,与传统的人机界面以及流行的视窗操作相比,VR在技术思想上有了质的飞跃。[0003]绿幕拍摄已然成为影视行业中备受关注的一部分。传统的绿幕拍摄,是在采用绿幕为背景进行演员或其他主体的拍摄,然后对所述绿幕背景抠图,最后在后期加入对应的特效合成。然而,目前的拍摄手法,容易导致后期添加的特效与前期拍摄的实体之间的空间契合度不高,甚至差异过大需要重新拍摄,降低了拍摄效率,造成人力、物力资源的浪费。发明内容[0004]本发明实施例提供一种基于虚拟现实的视频拍摄方法和装置,可以提升视频的拍摄效率。[0005]本发明实施例提供了一种基于虚拟现实的视频拍摄方法,包括:[0006]向用户展示道具模型;[0007]获取所述用户与所述道具模型的互动信息;[0008]基于所述互动信息,获取对应的虚拟场景;[0009]实时将所述互动信息与对应的虚拟场景进行融合,以输出目标视频。[0010]在一些实施例中,向用户展示道具模型的步骤包括:[0011]建立道具模型的状态数据库;[0012]向用户展示所述道具模型的原始状态;[0013]基于所述用户的肢体动作,在所述状态数据库中生成对应的应对状态;[0014]向所述用户展示所述道具模型的应对状态。[0015]在一些实施例中,获取所述用户与所述道具模型的互动信息的步骤包括:[0016]获取所述用户的肢体动作、表情和语言信息;[0017]根据所述用户的肢体动作、表情和语言信息,在所述状态数据库中读取所述道具模型的应对状态,以生成应对信息。[0018]在一些实施例中,基于所述互动信息,获取对应的虚拟场景的步骤包括:[0019]建立虚拟场景数据库;[0020]获取互动信息中所述道具模型所在的虚拟位置;[0021]根据所述虚拟位置在所述虚拟场景数据库中生成对应的虚拟场景。[0022]在一些实施例中,实时将所述互动信息与对应的虚拟场景进行融合,以输出目标视频的步骤包括:[0023]将所述互动信息画面化,以得到所述用户与所述道具模型的互动画面;[0024]实时将所述互动画面与对应的虚拟场景进行融合,以输出目标视频。[0025]相应地,本发明实施例提供了一种基于虚拟现实的视频拍摄装置,包括:[0026]展示模块,用于向用户展示道具模型;[0027]信息获取模块,用于获取所述用户与所述道具模型的互动信息;[0028]场景获取模块,用于基于所述互动信息,获取对应的虚拟场景;[0029]融合模块,用于实时将所述互动信息与对应的虚拟场景进行融合,以输出目标视频。[0030]在一些实施例中,所述展示模块包括:[0031]状态建立单元,用于建立道具模型的状态数据库;[0032]第一展示单元,用于向用户展示所述道具模型的原始状态;[0033]状态获取单元,用于基于所述用户的肢体动作,在所述状态数据库中生成对应的应对状态;[0034]第二展示单元,用于向所述用户展示所述道具模型的应对状态。[0035]在一些实施例中,所述信息获取模块包括:[0036]信息获取单元,用于获取所述用户的肢体动作、表情和语言信息;[0037]信息生成单元,根据所述用户的肢体动作、表情和语言信息,从所述状态数据库中读取所述道具模型的应对状态,以生成应对信息。[0038]在一些实施例中,所述场景获取模块包括:[0039]场景建立单元,用于建立虚拟场景数据库;[0040]位置获取单元,用于获取互动信息中所述道具模型所在的虚拟位置;[°041]场景生成单元,用于根据所述虚拟位置在所述虚拟场景数据库中生成对应的虚拟场景。[0042]在一些实施例中,所述融合模块包括:[0043]转换单元,用于将所述互动信息画面化,以得到所述用户与所述道具模型的互动画面;[°044]融合单元,用于实时将所述互动画面与对应的虚拟场景进行融合,以输出目标视频。[°045]本发明实施例提供的基于虚拟现实的视频拍摄方法,通过向用户展示道具模型,然后,获取用户与道具模型的互动信息,并基于该互动信息,获取对应的虚拟场景,再实时将该互动信息与对应的虚拟场景进行融合,以输出目标视频。该方案通过虚拟现实的方式向用户展示预先构建的道具模型,以提高用户的互动信息、道具模型、与虚拟场景三者之间的契合度,提升了拍摄效率。附图说明[0046]为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。[0047]图1是本发明实施例提供的基于虚拟现实的视频拍摄方法的一种流程示意图。[0048]图2是本发明实施例提供的基于虚拟现实的视频拍摄方法的另一种流程示意图。[0049]图3是本发明实施例提供的基于虚拟现实的视频拍摄系统的一种应用场景示意图。[0050]图4是本发明实施例提供的基于虚拟现实的视频拍摄装置的一种结构示意图。[0051]图5是本发明实施例提供的基于虚拟现实的视频拍摄装置的另一种结构示意图。具体实施方式[0052]下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。[0053]本发明的说明书和权利要求书以及上述附图中的术语“第一”、“第二”、“第三”等如果存在是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应当理解,这样描述的对象在适当情况下可以互换。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含。[0054]在本专利文档中,下文论述的附图以及用来描述本发明公开的原理的各实施例仅用于说明,而不应解释为限制本发明公开的范围。所属领域的技术人员将理解,本发明的原理可在任何适当布置的系统中实施。将详细说明示例性实施方式,在附图中示出了这些实施方式的实例。此外,将参考附图详细描述根据示例性实施例的终端。附图中的相同附图标号指代相同的元件。[0055]本发明说明书中使用的术语仅用来描述特定实施方式,而并不意图显示本发明的概念。除非上下文中有明确不同的意义,否则,以单数形式使用的表达涵盖复数形式的表达。在本发明说明书中,应理解,诸如“包括”、“具有”以及“含有”等术语意图说明存在本发明说明书中揭示的特征、数字、步骤、动作或其组合的可能性,而并不意图排除可存在或可添加一个或多个其他特征、数字、步骤、动作或其组合的可能性。附图中的相同参考标号指代相同部分。[0056]本发明实施例提供一种基于虚拟现实的视频拍摄方法和装置。以下将分别进行详细说明。[0057]在一优选实施例中,提供一种基于虚拟现实的视频拍摄方法,如图丨所示,流程可以如下:[0058]101、向用户展示道具模型。[0059]具体地,该道具模型可以是预先构建的虚拟道具三维模型,比如,可以是科幻片中的怪兽三维模型、武器三维模型等等。[0060]其中,该道具模型可以存储在终端或服务器相应的存储区域中。[0061]具体实施过程中,可让用户佩戴虚拟现实眼镜,以将道具模型展示给用户。[0062]102、获取该用户与该道具模型的互动信息。[0063]在本发明实施例中,互动信息指用户与道具模型进行互动时,各自所展现出的动作信息、表情信息、形态信息、语言信息,各自所在位置信息以及其他信息等。[0064]103、基于该互动信息,获取对应的虚拟场景。[0065]在一些实施方式中,可以从该互动信息中提取所需信息,在根据该所需信息获取对应的虚拟场景。比如,可以预先建立互动信息与虚拟场景之间的映射关系,将互动信息、虚拟场景以及该映射关系保存,得到映射关系集合。然后,根据目标互动信息和映射关系,从该映射关系集合中获取与该目标互动信息对应的目标虚拟场景。[0066]104、实时将该互动信息与对应的虚拟场景进行融合,以输出目标视频。[0067]实际应用中,可以将互动信息与虚拟场景实时匹配,得到多帧三维图像,然后将得到的多帧三维图像制作成视频文件,以将互动信息与对应的虚拟场景进行融合,得到目标视频,实现视频拍摄。[0068]由上可知,本发明实施例提供了一种基于虚拟现实的视频拍摄方法,通过向用户展示道具模型,然后,获取用户与道具模型的互动信息,并基于该互动信息,获取对应的虚拟场景,再实时将该互动信息与对应的虚拟场景进行融合,以输出目标视频。该方案通过虚拟现实的方式向用户展示预先构建的道具模型,以提高用户的互动信息、道具模型、与虚拟场景三者之间的契合度,提升了拍摄效率。[0069]在本发明又一实施例中,还提供另一基于虚拟现实的视频拍摄方法。如图2所示,流程可以如下:[0070]201、建立道具模型的状态数据库。[0071]本实施例中,该状态数据库可以存储在终端设备或服务器中。具体实施过程中,为了提升数据的读取速度,方便数据的调用,可以将该状态数据库存储在终端本地。[0072]其中,该道具模型可以是预先构建的虚拟道具三维模型,比如,可以是科幻片中的怪兽三维模型、武器三维模型等等。[0073]202、向用户展示道具模型的原始状态。[0074]具体地,原始状态也即初始模型状态。在本实施例中特指道具模型在没有接收任何操作指令情况下,模型设计者所设定的稳定状态。[0075]203、基于用户的肢体动作,在状态数据库中生成对应的应对状态。[0076]具体地,可以获取用户的肢体动作包括腿部、手部、头部、身体等的动作所产生的力度信息、以及用户相对于道具模型所在位置信息,用户的肢体相对于道具模型特定部位的角度信息、位置信息等。然后,对获取的信息进行解析,得到相应的各种参数信息。再将参数信息通过相关算法处理后,得到针对道具模型对应的各种参数信息,并根据得到的参数信息生成对应的应对状态,保存在状态数据库中。[0077]实际应用中,可以通过一系列的虚拟现实设备获取用户的肢体动作。比如,可以通过用户穿戴的数据衣、数据手套、数据手环等设备,获取用户身体的各种参数,再根据这些参数确定用户的肢体动作。[0078]204、向用户展示道具模型的应对状态。[0079]根据用户的肢体动作,实时向其展示道具模型的应对状态。比如,用户左手从正对道具模型头部的方向出击一拳,道具模型相应地退后几步并倒地。[0080]205、获取用户的肢体动作、表情和语言信息。[0081]具体地,可以在用户与道具模型互动的过程中,获取用户的肢体动作、表情和语言"[目息等。[0082]206、从状态数据库中,读取道具模型的应对状态,以生成应对信息。[0083]在一些实施方式中,该道具模型的应对状态相应地也可以有多种,比如,可以包括肢体动作、表情和语言信息等。[0084]具体实施过程中,可以根据用户的肢体动作、表情和语言信息中的一种或多种,获取道具模型的肢体动作。根据用户的肢体动作、表情和语言信息中的一种或多种,获取道具模型的表情。根据用户的肢体动作、表情和语言信息中的一种或多种,获取道具模型的语言信息。根据获取的应对状态,生成相应的应对信息。[0085]207、基于用户与道具模型之间的互动信息,获取对应的虚拟场景。[0086]在本实施例中,该互动信息可以包括用户的肢体动作、表情和语言信息,以及道具模型的应对信息。本实施例中,获虚拟场景的方式可以有多种。可选地,可根据虚拟空间中道具模型的位置信息确定相对应的虚拟场景。也即步骤“基于用户与道具模型之间的互动信息,获取对应的虚拟场景”可以包括如下流程:[0087]建立虚拟场景数据库;[0088]获取互动信息中道具模型所在的虚拟位置;[0089]根据虚拟位置在虚拟场景数据库中生成对应的虚拟场景。[0090]具体地,该虚拟场景数据库可以建立在终端设备的存储区域内,以便数据的调用,提升数据的读取速度。[0091]比如,当道具模型由场景最左侧走向最右侧时,虚拟场景左侧场景将随着道具模型的运动轨迹消失,而新增右侧的场景。[0092]208、将互动信息画面化,以得到用户与道具模型的互动画面。[0093]具体地,可以时间为基准,将用户的肢体动作、表情和语言信息,与道具模型的应对信息进行匹配合成处理,以得到一帧帧随时间变化的用户与道具模型之间的互动三维图像。[0094]209、实时将互动画面与对应的虚拟场景进行融合,以输出目标视频。[0095]在本发明又一同样地,以时间为基准,获取某一时间点对应的用户与道具模型之间的互动三维图像,以及该时间点对应的虚拟场景。然后,将该互动三维图像与虚拟场景进行图像合成处理,得到新的三维图像。以此类推,合成各个间点的三维图像,以得到互动信息与虚拟场景的多帧三维图像。然后将得到的多帧三维图像按时间顺序制作成视频文件,以将互动信息与对应的虚拟场景进行融合,得到目标视频,实现视频拍摄。[0096]由上可知,本发明实施例提供了一种基于虚拟现实的视频拍摄方法,通过建立道具模型的状态数据库,向用户展示道具模型的原始状态,然后基于用户的肢体动作,在状态数据库中生成对应的应对状态,并向用户展示道具模型的应对状态。进而,获取用户的肢体动作、表情和语言信息,以及从状态数据库中,读取道具模型的应对状态,以生成应对信息。再根据道具模型的虚拟位置在虚拟场景数据库中生成对应的虚拟场景,最后将用户的肢体动作、表情和语言信息、道具模型对应的应对信息以及对应的虚拟场景进行融合,以输出目标视频,实现视频拍摄。该方案通过虚拟现实的方式向用户展示预先构建的道具模型,一方面,使得用户可以在虚拟空间中与该道具模型进行互动,提高了视频拍摄的真实性;另一方面,先制作特效,可以提高用户的互动信息、道具模型、与虚拟场景三者之间的契合度,避免了后期绿幕制作中添加的特效与前期拍摄的实体之间的空间契合度不高需重新拍摄的问题,提高了拍摄效率,节省了人力、物力资源。[0097]参考图3,本发明又一实施例提供一种基于虚拟现实的视频拍摄系统。如图,该视频拍摄系统包括:摄影设备33、服务器34以及控制显示设备36。[0098]其中,摄影设备33可以为摄像机、照相机或者带有摄影功能的电子设备,其可用于采集影像信息。比如,该摄影设备可用于用户的肢体动作、表情、以及语言信息等。[0099]服务器34具体可以为数据服务器、网络服务器等网络设备。该服务器34可用于提供道具模型341以及虚拟场景342的三维图像。[0100]显示控制设备36可以包括计算机、智能手机、平板电脑等具有运算处理功能的智能设备。[0101]在又一实施例中实施例中,提供又一基于虚拟现实的视频拍摄方法。下面将基于上述视频拍摄系统,以该道具模型341为怪兽模型341为例对该视频拍摄方法进行详细描述。[0102]在本实施例中,用户31通过穿戴虚拟现实设备32如数据手套、数据衣、虚拟现实眼镜、数据鞋以及数据手环等进入拍摄场景。然后,通过三维视觉显示设备如大型投影系统CAVE向用户31展示该服务器34提供的怪兽模型341的原始状态。用户31通过虚拟现实眼镜看到怪兽模型341,然后,跟怪兽模型341进行互动。通过数据衣、数据手套等获取用户肢体动作,并将相应的参数信息传送至服务器34,服务器34基于该参数信息调用相应的虚拟场景342和怪兽模型341的应对状态进行展示。[0103]如图3所示,用户31向怪兽模型341做发射武器的动作,服务器34将根据用户31的肢体动作,生成对应的光波(即虚拟场景342。怪兽模型341将基于用户31发射武器的动作,展示出被击倒的状态。摄影设备33捕捉到用户31的肢体动作、表情、语言等信息,实时传输至显示控制终端36进行显示,服务器34基于用户31的肢体动作,实时将虚拟场景342以及怪兽模型341传输至显示控制终端36进行显示,以得到融合后的影像35。[0104]实际应用中,为了提升场景的真实性,还可以利用声音设备如三维的声音系统以及非传统意义的立体声为虚拟特效以及怪兽模型341配置相应的音效。[0105]由上可知,本发明实施例提供的基于虚拟现实的视频拍摄方法,通过虚拟现实的方式向用户展示预先构建的道具模型,以提高用户的互动信息、道具模型、与虚拟场景三者之间的契合度,提升了拍摄效率。[0106]在本发明又一实施例中,还提供一种基于虚拟现实的视频拍摄装置。如图4所示,该基于虚拟现实的视频拍摄装置可以包括展示模块41、信息获取模块42、场景获取模块43以及融合模块44,其中:[0107]展示模块41,用于向用户展示道具模型;[0108]信息获取模块42,用于获取该用户与该道具模型的互动信息;[0109]场景获取模块43,用于基于该互动信息,获取对应的虚拟场景;[0110]融合模块44,用于实时将该互动信息与对应的虚拟场景进行融合,以输出目标视频。[0111]参考图5,在一些实施例中,该展示模块41可以包括状态建立单元411、第一展示单元412、状态获取单元413以及第二展示单元414,其中:[0112]状态建立单元411,用于建立道具模型的状态数据库;[0113]第一展示单元412,用于向用户展示该道具模型的原始状态;[0114]状态获取单元413,用于基于该用户的肢体动作,在该状态数据库中生成对应的应对状态;[0115]第二展示单元414,用于向该用户展示该道具模型的应对状态。[0116]继续参考图5,在一些实施例中,信息获取模块42可以包括信息获取单元421和信息生成单元422,其中:信息获取单元421,用于获取该用户的肢体动作、表情和语言信息;信息生成单元422,用于从该状态数据库中,读取该道具模型的应对状态,以生成应对信息。[0119]继续参考图5,在一些实施例中,场景获取模块43可以包括场景建立单元431、位置获取单元432以及场景生成单元433,其中:[0120]场景建立单元431,用于建立虚拟场景数据库;[0121]位置获取单元432,用于获取互动信息中该道具模型所在的虚拟位置;[0122]场景生成单元433,用于根据虚拟位置在虚拟场景数据库中生成对应的虚拟场景。[0123]继续参考图5,在一些实施例中,该融合模块44可以包括转换单元441和融合单元442,其中:[0124]转换单元441,用于将该互动信息画面化,以得到该用户与该道具模型的互动画面;[0125]融合单元442,用于实时将该互动画面与对应的虚拟场景进行融合,以输出目标视频。[0126]由上可知,本发明实施例提供了一种基于虚拟现实的视频拍摄装置,通过向用户展示道具模型,然后,获取用户与道具模型的互动信息,并基于该互动信息,获取对应的虚拟场景,再实时将该互动信息与对应的虚拟场景进行融合,以输出目标视频。该方案通过虚拟现实的方式向用户展示预先构建的道具模型,以提高用户的互动信息、道具模型、与虚拟场景三者之间的契合度,提升了拍摄效率。[0127]在描述本发明的概念的过程中使用了术语“一”和“所述”以及类似的词语尤其是在所附的权利要求书中),应该将这些术语解释为既涵盖单数又涵盖复数。此外,除非本文中另有说明,否则在本文中叙述数值范围时仅仅是通过快捷方法来指代属于相关范围的每个独立的值,而每个独立的值都并入本说明书中,就像这些值在本文中单独进行了陈述一样。另外,除非本文中另有指明或上下文有明确的相反提示,否则本文中所述的所有方法的步骤都可以按任何适当次序加以执行。本发明的改变并不限于描述的步骤顺序。除非另外主张,否则使用本文中所提供的任何以及所有实例或示例性语言(例如,“例如”)都仅仅为了更好地说明本发明的概念,而并非对本发明的概念的范围加以限制。在不脱离精神和范围的情况下,所属领域的技术人员将易于明白多种修改和适应。[0128]以上对本发明实施例所提供的一种基于虚拟现实的视频拍摄方法和装置进行了详细介绍。应理解,本文所述的示例性实施方式应仅被认为是描述性的,用于帮助理解本发明的方法及其核心思想,而并不用于限制本发明。在每个示例性实施方式中对特征或方面的描述通常应被视作适用于其他示例性实施例中的类似特征或方面。尽管参考示例性实施例描述了本发明,但可建议所属领域的技术人员进行各种变化和更改。本发明意图涵盖所附权利要求书的范围内的这些变化和更改。

权利要求:1.一种基于虚拟现实的视频拍摄方法,其特征在于,包括:向用户展示道具模型;获取所述用户与所述道具模型的互动信息;基于所述互动信息,获取对应的虚拟场景;实时将所述互动信息与对应的虚拟场景进行融合,以输出目标视频。2.如权利要求1所述的基于虚拟现实的视频拍摄方法,其特征在于,向用户展示道具模型的步骤包括:建立道具模型的状态数据库;向用户展示所述道具模型的原始状态;基于所述用户的肢体动作,在所述状态数据库中生成对应的应对状态;向所述用户展示所述道具模型的应对状态。3.如权利要求2所述的基于虚拟现实的视频拍摄方法,其特征在于,获取所述用户与所述道具模型的互动信息的步骤包括:获取所述用户的肢体动作、表情和语言信息;根据所述用户的肢体动作、表情和语言信息,在所述状态数据库中读取所述道具模型的应对状态,以生成应对信息。4.如权利要求1所述的基于虚拟现实的视频拍摄方法,其特征在于,基于所述互动信息,获取对应的虚拟场景的步骤包括:建立虚拟场景数据库;获取互动信息中所述道具模型所在的虚拟位置;根据所述虚拟位置在所述虚拟场景数据库中生成对应的虚拟场景。5.如权利要求1所述的基于虚拟现实的视频拍摄方法,其特征在于,实时将所述互动信息与对应的虚拟场景进行融合,以输出目标视频的步骤包括:将所述互动信息画面化,以得到所述用户与所述道具模型的互动画面;实时将所述互动画面与对应的虚拟场景进行融合,以输出目标视频。6.—种基于虚拟现实的视频拍摄装置,其特征在于,包括:展示模块,用于向用户展示道具模型;信息获取模块,用于获取所述用户与所述道具模型的互动信息;场景获取模块,用于基于所述互动信息,获取对应的虚拟场景;融合模块,用于实时将所述互动信息与对应的虚拟场景进行融合。7.如权利要求6所述的基于虚拟现实的视频拍摄装置,其特征在于,所述展示模块包括:状态建立单元,用于建立道具模型的状态数据库;第一展示单元,用于向用户展示所述道具模型的原始状态;状态获取单元,用于基于所述用户的肢体动作,在所述状态数据库中生成对应的应对状态;第二展示单元,用于向所述用户展示所述道具模型的应对状态。8.如权利要求7所述的基于虚拟现实的视频拍摄装置,其特征在于,所述信息获取模块包括:信息获取单元,用于获取所述用户的肢体动作、表情和语言信息;信息生成单元,根据所述用户的肢体动作、表情和语言信息,从所述状态数据库中读取所述道具模型的应对状态,以生成应对信息。9.如权利要求6所述的基于虚拟现实的视频拍摄装置,其特征在于,所述场景获取模块包括:场景建立单元,用于建立虚拟场景数据库;位置获取单元,用于获取互动信息中所述道具模型所在的虚拟位置;场景生成单元,用于根据所述虚拟位置在所述虚拟场景数据库中生成对应的虚拟场景。10.如权利要求6所述的基于虚拟现实的视频拍摄装置,其特征在于,所述融合模块包括:转换单元,用于将所述互动信息画面化,以得到所述用户与所述道具模型的互动画面;融合单元,用于实时将所述互动画面与对应的虚拟场景进行融合,以输出目标视频。

百度查询: 深圳市掌网科技股份有限公司 基于虚拟现实的视频拍摄方法和装置

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。