买专利,只认龙图腾
首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

【发明授权】语音识别方法和装置_三星电子株式会社_201780078456.1 

申请/专利权人:三星电子株式会社

申请日:2017-12-14

公开(公告)日:2024-04-09

公开(公告)号:CN110088833B

主分类号:G10L17/02

分类号:G10L17/02;G10L15/22;G10L15/183;G10L19/04;G10L15/26;G06F40/42

优先权:["20161219 KR 10-2016-0173618"]

专利状态码:有效-授权

法律状态:2024.04.09#授权;2019.08.27#实质审查的生效;2019.08.02#公开

摘要:提供了一种语音识别方法和语音识别装置,其预先下载预测使用的语音识别模型并在语音识别中使用语音识别模型。所述语音识别方法,由所述语音识别装置执行,包括:基于用户信息确定语音识别模型,下载语音识别模型,基于语音识别模型执行语音识别,以及输出执行语音识别的结果。

主权项:1.一种语音识别方法,由语音识别装置执行,所述语音识别方法包括:基于用户信息确定语音识别模型;其中,语音识别模型包括与预测的话语相关的预测语言模型,其中,确定语音识别模型包括根据用户信息确定包含在语音识别模型中的预测语言模型的域的深度和根,根据所确定的域的深度和根确定预测语言模型的域的范围,并且将所确定的范围中包括的语言模型确定为预测语言模型,其中,当所述预测语言模型中包含的语言模型具有分层结构时,所述深度指示所述语言模型的顶部和底部范围,并且当具有分层结构并包含在所述预测语言模型中的语言模型之间具有相似性时,所述根指示所述语言模型的范畴,所述范畴被包括在所述相似性的范围中;下载语音识别模型;基于语音识别模型执行语音识别;以及输出执行语音识别的结果,其中,所述用户信息包括语音识别装置的用户的年龄、用户的性别、用户的教育水平、用户的工作、用户的家庭状况、用户的国籍、用户的生物信息、用户使用的语言、关于用户所处环境的信息、关于用户所处交通工具的信息、关于用户的目的地的信息或用户输入的信息中的至少一个。

全文数据:语音识别方法和装置技术领域本公开涉及一种语音speech识别方法和装置,更具体地说,本公开涉及一种预先下载预测使用的语音识别模型并在语音识别中使用该语音识别模型的语音识别方法,以及语音识别装置。背景技术近来,已经开发了诸如执行各种功能的智能电话的电子设备,并且已经发布了其中安装有语音识别功能以提高可用性的电子设备。语音识别功能的优点在于,在没有单独的按钮控制或必须接触触摸模块的情况下识别用户的语音,使得用户可以容易地控制设备。根据语音识别功能,例如,在诸如智能手机的便携式终端中,可以执行呼叫功能或者可以在不按下单独的按钮的情况下写入文本消息,以及可以容易地设置诸如导航,互联网搜索,警报设置等的各种功能。例如,语音识别装置可以包括嵌入式语音识别装置,其通过使用存储在嵌入在语音识别装置中的存储器中的语音识别模型来执行语音识别。因为嵌入式语音识别装置使用存储在嵌入式语音识别装置中的存储器中的语音识别模型,所以即使语音识别装置没有连接到网络,语音识别装置也可以执行语音识别并具有快速的响应速度。然而,嵌入式语音识别装置可以识别与存储在嵌入在语音识别装置中的存储器中的语音识别模型相对应的有限范围的语音识别命令,并且与服务器连接的语音识别装置相比具有低识别率。作为另一示例,语音识别装置可以包括服务器连接的语音识别装置,其通过使用存储在连接到语音识别装置的服务器中的语音识别模型来执行语音识别。因为服务器连接的语音识别装置使用服务器中的具有大存储容量的存储器,所以服务器连接的语音识别装置可以识别大范围的语音识别命令,并且与嵌入式语音识别装置相比具有高识别率。然而,仅当语音识别装置连接到网络时,服务器连接的语音识别装置才能执行语音识别功能。作为另一示例,为了补偿嵌入式语音识别装置和服务器连接的语音识别装置的缺点,可以使用混合型语音识别装置。当混合型语音识别装置连接到网络时,混合型语音识别装置可以作为服务器连接的语音识别装置操作,并且当混合型语音识别装置没有连接到网络时,混合型语音识别装置可以作为嵌入式语音识别装置操作。当混合型语音识别装置连接到网络时,混合型语音识别装置通过使用从服务器下载的语音识别模型来执行语音识别,使得混合型语音识别装置可以识别大范围的语音识别命令或者与嵌入式语音识别装置相比可以具有高识别率。另外,当混合型语音识别装置连接到网络时,混合型语音识别装置周期性地更新存储在嵌入在语音识别装置中的存储器中的语音识别模型,因此,即使混合型语音识别装置没有连接到网络,混合型语音识别装置可以识别大范围的语音识别命令,或者与嵌入式语音识别装置相比可以具有高识别率。另外,因为混合型语音识别装置根据网络连接改变其操作方案,所以即使混合型语音识别装置没有连接到网络,混合型语音识别装置也可以执行语音识别功能,从而克服了服务器连接的语音识别装置的缺点。通过以下结合附图公开了本公开的各种实施例的详细描述,本公开的其他方面,优点和显着特征对于本领域技术人员将变得显而易见。发明内容【技术方案】当语音识别装置没有连接到网络时,语音识别装置可以通过使用存储在嵌入式存储器中的语音识别模型来执行语音识别。当语音识别装置通过使用存储在嵌入式存储器中的语音识别模型来执行语音识别时,如果先前存储的语音识别模型与用户发出的语音识别命令不匹配,则语音识别率可能恶化。本公开的各方面旨在解决至少上述问题和或缺点,并提供至少下述优点。因此,本公开的一个方面是提供一种无论语音识别装置是否连接到网络都维持有效语音识别功能的技术。【有益效果】根据本公开的实施例,无论语音识别装置是否连接到网络,都可以维持有效的语音识别功能。附图说明图1A和图1B是用于描绘根据本公开的实施例的语音识别系统的示图。图2是根据本公开的实施例的语音识别装置的框图。图3是根据本公开的实施例的语音识别装置的框图。图4是用于描绘根据本公开的实施例的由语音识别装置执行的执行语音识别的方法的示图。图5是根据本公开的实施例的由语音识别装置执行的语音识别方法的流程图。图6是根据本公开的实施例的由语音识别装置执行的管理语音识别模型的方法的流程图。图7是用于描绘根据本公开的实施例的由语音识别装置执行的确定预测语言模型的方法的示图。图8是用于描绘根据本公开的实施例的由语音识别装置执行的基于用户信息确定预测语言模型中包括的语言模型的范围的方法的示图。图9是用于描绘根据本公开的实施例的由语音识别装置执行的基于用户日程下载用于翻译的语言模型的方法的示图。图10是用于描绘根据本公开的实施例的由语音识别装置执行的基于车辆的状态确定预测语言模型并执行语音识别的方法的示图。图11是用于描绘根据本公开的实施例的由语音识别装置执行的通过参考移动路线上的网络的状态来下载预测语言模型的方法的示图。图12是用于描绘根据本公开的实施例的由语音识别装置执行的从外围电子设备下载或与外围电子设备共享语言模型的方法的示图。具体实施方式根据本公开的一方面,提供了一种由语音识别装置执行的语音识别方法。语音识别方法包括基于用户信息确定语音识别模型,下载语音识别模型,基于语音识别模型执行语音识别,以及输出执行语音识别的结果。根据本公开的一方面,提供了一种语音识别装置。所述语音识别装置包括:接收器,被配置为接收语音识别装置的用户的语音;至少一个处理器,被配置为基于用户信息确定语音识别模型,并且基于语音识别模型对用户的语音执行语音识别,通信器,被配置为下载语音识别模型;以及输出接口,被配置为输出执行语音识别的结果。根据其上记录有一个或多个程序的非暂时性计算机可读记录介质的一个方面。所述记录介质包括用于使电子设备能够执行语音识别方法的指令,所述方法包括基于用户信息确定语音识别模型,下载语音识别模型,基于语音识别模型执行语音识别,以及输出执行语音识别的结果。通过以下结合附图公开了本公开的各种实施例的详细描述,本公开的其他方面,优点和显着特征对于本领域技术人员将变得显而易见。提供参照附图的以下描述以帮助全面理解由权利要求及其等同物限定的本公开的各种实施例。它包括各种具体细节以帮助理解,但这些仅被视为示例性的。因此,本领域普通技术人员将认识到,在不脱离本公开的范围和精神的情况下,可以对本文描述的各种实施例进行各种改变和修改。另外,为了清楚和简明,可以省略对公知功能和结构的描述。在以下描述和权利要求中使用的术语和词语不限于书面含义,而是仅由发明人使用以使得能够清楚和一致地理解本公开。因此,对于本领域技术人员来说显而易见的是,提供本公开的各种实施例的以下描述仅用于说明目的,而不是为了限制由所附权利要求及其等同物限定的本公开的目的。应当理解,除非上下文另有明确规定,否则单数形式“一”,“一个”和“该”包括复数指示物。因此,例如,对“组件表面”的引用包括对一个或多个这样的表面的引用。可以根据功能块组件和各种处理操作来描述一些实施例。一些或所有功能块可以由被配置为执行指定功能的任何数量的硬件和或软件组件来实现。例如,本公开的功能块可以由一个或多个微处理器或用于预定功能的电路组件来实现。另外,例如,本公开的功能块可以用任何编程语言或脚本语言来实现。可以在一个或多个处理器上执行的算法中实现功能块。此外,本公开可以采用任何数量的根据现有技术的电子配置的技术,信号处理和或控制,数据处理等。此外,图中所示的元件之间的连接线或连接器旨在表示元件之间的各种功能关系和或物理或逻辑耦合。应当注意,在实际设备中可以存在许多替代或附加的功能关系,物理连接或逻辑连接。如在此所使用的,术语“和或”包括一个或多个相关所列项目的任何和所有组合。诸如“至少一个”的表达式在元素列表之前时,修改整个元素列表而不修改列表的各个元素。在下文中,现在将参照附图更充分地描述本公开。图1A和图1B是用于描述根据本公开的实施例的语音识别系统的示图。参照图1A,根据本公开的语音识别系统不限于此,实施例可以包括语音识别装置100-1和服务器110。语音识别装置100-1和服务器110可以以有线或无线方式连接。例如,语音识别装置100-1可以是移动计算装置或非移动计算装置,其包括但不限于智能手机、平板个人计算机PC、PC、智能电视TV、个人数字助理PDA、笔记本电脑、媒体播放器、微服务器、全球定位系统GPS设备、可穿戴设备、电子书e-book终端、数字广播终端、导航、自助服务终端kiosk、运动图像专家组阶段1或阶段2MPEG-1或MPEG-2音频层3MP3播放器、数码相机、车辆的电子控制设备、中央信息显示器CID等。例如,语音识别装置100-1可以包括在智能手机,车辆的电子控制设备或CID中。根据本实施例的语音识别装置100-1可以接收包括由用户10发出的语音的音频信号,并且可以对音频信号中的语音执行语音识别。语音识别装置100-1可以通过使用从服务器110下载的语音识别模型来执行语音识别。语音识别装置100-1可以输出语音识别的结果。根据本实施例的服务器110可以与语音识别装置100-1共享数据。语音识别装置100-1可以将输入音频信号发送到服务器110。可选地,语音识别装置100-1可以将从输入音频信号检测到的语音信号发送到服务器110。可选地,语音识别装置100-1可以将从输入音频信号检测到的语音信号的特征发送到服务器110。服务器110可以基于从语音识别装置100-1接收的信号执行语音识别。例如,服务器110可以对从输入到语音识别装置100-1的音频信号检测到的语音信号执行语音识别。服务器110可以通过使用存储在服务器110中的语音识别模型来执行语音识别。语音识别装置100-1可以通过使用存储在服务器110中的语音识别模型来执行语音识别。服务器110可以将语音识别的结果发送到语音识别装置100-1。语音识别装置100-1可以输出语音识别的结果。参照图1B,语音识别系统可以包括语音识别装置100-2和电子设备120。语音识别装置100-2和电子设备120可以以有线或无线方式连接。例如,语音识别装置100-2可以是移动计算装置或非移动计算装置,其包括智能手机、平板PC、PC、智能电视,PDA、笔记本电脑、媒体播放器、微服务器、GPS设备、采用手表、手镯、眼镜、头戴耳机、入耳耳机等形式的可穿戴设备、电子书终端、数字广播终端、导航、自助服务终端、MP3播放器、数码相机、车辆的电子控制设备、CID等。电子设备120可以是移动计算设备或非移动计算设备,其包括智能手机、平板PC、PC、智能电视、PDA、笔记本电脑、媒体播放器、微服务器、GPS设备、可穿戴设备、电子书终端、数字广播终端、导航、自助服务终端、MP3播放器、数码相机、车辆的电子控制设备、CID等。根据本实施例的电子设备120可以控制语音识别装置100-2的操作,并且可以与语音识别装置100-2共享数据。根据本实施例的语音识别装置100-2可以接收包括由用户10发出的语音的音频信号,并且可以对音频信号中的语音执行语音识别。根据本实施例的语音识别装置100-2可以通过使用从电子设备120下载的或者与电子设备120实时共享的语音识别模型来执行语音识别。语音识别装置100-2可以输出语音识别的结果。语音识别装置100-2可以接收包括用户10发出的语音的音频信号,并且可以将音频信号发送到电子设备120。可选地,语音识别装置100-2可以接收包括由用户10发出的语音的音频信号,并且可以向电子设备120发送从接收的音频信号中检测到的语音信号。可选地,语音识别装置100-2可以接收包括用户10发出的语音的音频信号,并且可以向电子设备120发送从接收的音频信号中检测到的语音信号的特征。电子设备120可以基于从语音识别装置100-2接收的信号执行语音识别。例如,电子设备120可以对从输入到语音识别装置100-2的音频信号检测到的语音信号执行语音识别。电子设备120可以通过使用存储在电子设备120中的语音识别模型来执行语音识别。根据本实施例的语音识别装置100-2可以通过使用存储在电子设备120中的语音识别模型来执行语音识别。电子设备120可以输出语音识别的结果,或者可以控制语音识别装置100-2输出语音识别的结果。语音识别装置100-1或100-2提供一种即使语音识别装置100-1或100-2根据网络环境的改变没有连接到服务器110或电子设备120也维持高语音识别功能的方法。当根据现有技术的语音识别装置没有连接到网络时,语音识别装置可以通过使用存储在嵌入式存储器中的语音识别模型来执行语音识别。对此,如果反映到先前更新并存储在语音识别装置中的语音识别模型的情况与当前情况不匹配,则语音识别率可能恶化。例如,当网络连接流畅时,语音识别装置可以下载包括在已经反映了新造词newcoinage或用户的使用历史的特定域中的语言模型,并且可以更新预先存储的语言模型。然而,如果用户没有给出与该特定域中包括的语言模型相对应的话语utterance,则很可能在语音识别中发生错误。根据本实施例,提供了一种无论网络连接如何都维持高语音识别率的语音识别方法。图2是根据本公开的实施例的语音识别装置200的框图。参照图2,根据本实施例的语音识别装置200可以包括接收器210、处理器220、通信器230和输出接口240。然而,语音识别装置200可以具有比在图2中示出的元件更多的元件。例如,如图3所示,语音识别装置200还可以包括存储器250、用户输入接口260和传感器270。例如,语音识别装置200可以实施为包括在家用电器、车辆电子控制设备和计算设备中的至少一个中,或者以有线或无线方式连接到家用电器、车辆电子控制设备或计算设备中的至少一个。根据本实施例的接收器210可以接收包括用户的语音的音频信号。例如,接收器210可以将经由麦克风输入的外部声音转换为电声数据,从而直接接收音频信号。可选地,接收器210可以从外部设备接收音频信号。参照图2,接收器210包括在语音识别装置200中,但是根据另一实施例的接收器210可以包括在单独设备中并且可以以有线或无线方式连接到语音识别装置200。根据本实施例的处理器220可以控制语音识别装置200的一般操作。例如,处理器220可以控制接收器210、通信器230和输出接口240。处理器220可以基于用户信息确定语音识别模型。语音识别模型可以包括预处理模型、声学模型或语言模型中的至少一个。预处理模型包括在执行语音识别之前对输入音频信号执行的预处理中使用的信息。例如,预处理模型可以包括关于输入音频信号中包括的各种类型的噪声、语音识别装置200和声源之间的距离、信噪比SNR或回波echo的信息。预处理模型可以包括噪声模型、距离模型或回波模型中的至少一个。声学模型包括用于通过使用单音素单位或三音素单位确定语音信号和声音之间的匹配的信息。例如,可以基于声学模型分别计算语音信号与音素匹配的概率,并且作为结果,可以确定与语音信号匹配的音素。语言模型包括用于确定语音信号与哪个词语word匹配的信息。例如,可以基于语言模型来计算语音信号分别与多个词语匹配的概率,并且作为结果,可以确定与语音信号匹配的词语。在下面的描述中,语音识别模型被分类为语言模型和声学模型来进行描述,然而,可以替换和使用模型中的每一个。例如,根据本实施例的处理器220可以确定与基于用户信息预测的话语相关的预测语言模型。用户信息可以包括关于用户的特征的信息、关于用户所处环境的信息、关于用户所在车辆的信息、关于通过来自用户的语音识别命令来控制的电子设备的信息、关于用户将要移动到的目的地的信息、或者用户输入的信息中的至少一个。例如,关于用户的特征的信息可以包括与年龄、性别、教育水平、工作、家庭状况、国籍、生物信息或用户使用的语言中的至少一个相关的信息。关于用户所处环境的信息可以包括与用户的位置、网络环境、交通状况、季节、时间、天气或日期中的至少一个相关的信息。关于用户所在车辆的信息可以包括与车辆的燃料量、可用驾驶距离、维护信息、同伴乘客信息、驾驶速度或窗是否打开中的至少一个相关的信息。连接到语音识别装置200的服务器或电子设备可以存储与预测在各种情况下接收的音频信号相关的语音识别模型的信息。语音识别装置200可以获得用户信息,并且可以在服务器或电子设备中搜索基于用户信息预测的语音识别模型。语音识别装置200可以从服务器或电子设备实时下载或共享语音识别模型。例如,连接到根据本实施例的语音识别装置200的服务器或电子设备可以存储关于与在各种情况下预测的每个话语相关的语言模型的信息。语音识别装置200可以获得用户信息,并且可以在服务器或电子设备中搜索与基于用户信息预测的话语相关的语言模型。语音识别装置200可以从服务器或电子设备实时下载或共享预测语言模型,该预测语言模型与预测的由用户说出的话语相关。当处理器220从用户接收用户输入时,当用户所处环境发生变化时和或当使用的语言模型的使用时段期满时,处理器220可以确定语音识别模型。当语音识别模型包括与预测的话语相关的预测语言模型时,根据本实施例的处理器220可以基于用户信息确定预测语言模型的域domain。处理器220可以基于关于用户信息中所包括的用户的特征的信息来确定所述域中包括的语言模型的范围。处理器220可以将所确定的范围中包括的至少一个语言模型确定为预测语言模型。处理器220可以基于网络状态确定下载语音识别模型的时间。例如,当语音识别模型包括与预测的话语相关的预测语言模型时,处理器220可以基于关于用户移动到目的地所采用的路线的信息,来确定包括与该路线中包括的第一点相关的语言模型的语音识别模型。当处理器220预测到语音识别装置200的网络状态在第一点不足时,处理器220可以控制语音识别装置200在到达第一点之前下载与第一点相关的语言模型。处理器220可以确定关于语音识别模型的使用方法。处理器220可以确定语音识别模型的使用时段、在使用语音识别模型之后处理语音识别模型的方法、或者语音识别模型的可靠性中的至少一个作为关于语音识别模型的使用方法。处理器220可以在包括在该使用方法中的该语音识别模型的使用时段期间通过使用该语音识别模型来执行语音识别。在该语音识别模型的使用时段期满之后,处理器220可以基于该使用方法删除或停用语音识别模型。例如,当语音识别模型包括与预测的话语相关的预测语言模型时,处理器220可以基于关于用户的日程的信息确定与在用户将要位于的区域中使用的外语相关的预测语言模型。基于用户的日程,处理器220可以确定在用户将要位于该区域的时段中激活预测语言模型。处理器220可以基于预测语言模型,控制语音识别装置200输出在该外语和用户使用的语言之间执行翻译的结果。处理器220可以通过使用语音识别模型对用户的语音执行语音识别。处理器220可以通过基于使用方法来使用语音识别模型,对用户的语音执行语音识别。处理器220可以从输入音频信号中提取语音信号的频率特征,并且可以通过使用声学模型和语言模型来执行语音识别。频率特征可以指示通过分析声学输入的频谱而提取的声学输入的频率分量的分布。处理器220可以实施为执行特定功能的硬件和或软件配置。例如,处理器220可以包括用于管理语音识别中使用的语言模型的模型管理器410参照图4、网络状态确定器420参照图4或执行语音识别的语音识别器430参照图4中的至少一个。由处理器220执行的功能可以分别由用于该功能的至少一个微处理器或电路配置来实现。由处理器220执行的所有或部分功能可以由包括由处理器220执行的各种编程语言或脚本语言的软件模块来实现。参照图2和图3,语音识别装置200包括一个处理器220,但是本实施例不限于此。语音识别装置200可以包括多个处理器。通信器230可以以有线或无线方式与服务器或电子设备中的至少一个通信。通信器230可以从服务器或电子设备中的至少一个下载语音识别模型。通信器230可以与执行语音识别功能的服务器或电子设备中的至少一个通信。例如,通信器230可以将音频信号发送到服务器。通信器230可以接收由服务器执行的语音识别的结果。通信器230可以包括短程通信模块,有线通信模块,移动通信模块,广播接收模块等。通信器230可以从外部电子设备获得用户信息。通信器230可以获得由外部电子设备感测的信息作为用户信息。输出接口240可以输出执行语音识别的结果。输出接口240可以向用户通知执行语音识别的结果,或者可以将执行语音识别的结果发送到外部设备例如,智能电话、智能电视、智能手表、服务器等。输出接口240可以包括扬声器或显示器,用于输出音频信号、图像信号或视频信号。例如,输出接口240可以输出在外语和用户使用的语言之间执行翻译的结果。输出接口240可以执行与执行语音识别的结果相对应的操作。例如,语音识别装置200可以确定语音识别装置200的功能,该功能对应于执行语音识别的结果,并且可以经由输出接口240输出执行功能的执行屏幕。可选地,语音识别装置200可以向外部服务器发送与执行语音识别的结果相对应的关键字,可以从外部服务器接收与发送的关键字相关的信息,并且可以经由输出接口240在显示器上输出该信息。图3是根据本公开的实施例的语音识别装置的框图。参照图3,语音识别装置200还可以包括存储器250,用于存储包括预处理模型、声学模型和语言模型中的至少一个的语音识别模型;用户输入接口260,用于接收用户输入;或传感器270。存储器250可以存储将由处理器220执行的指令,以便控制语音识别装置200。处理器220可以考虑存储器250的容量来确定语音识别模型。存储器250可以存储语音识别模型。存储器250可以包括存储介质中的至少一个,所述存储介质包括闪存类型存储介质、硬盘类型存储介质、多媒体卡微型存储介质、卡型存储器例如,安全数字SD存储器、xD存储器等、随机访问存储器RAM、静态随机访问存储器SRAM、只读存储器ROM、电可擦除可编程只读存储器EEPROM、可编程只读存储器PROM、磁存储器、磁盘或光盘。用户输入接口260可以接收用于控制语音识别装置200的用户输入。用户输入接口260可以具有用户输入设备,包括但不限于,用于接收用户触摸的触摸面板,用于接收用户的推动操纵的按钮,用于接收用户的旋转操纵的轮,键盘和圆顶开关。传感器270可以包括一个或多个传感器,并且可以感测与语音识别装置200的用户相关的用户信息。可选地,传感器270可以感测用于确定语音识别装置200操作的环境的各种类型的信息。例如,传感器270可以感测关于用户的特征的信息、关于用户所处的环境的信息、关于用户所在车辆的信息,关于用户将要移动到的目的地的信息或用户输入的信息中的至少一个。例如,传感器270可以包括照度传感器、生物传感器、倾斜传感器、位置传感器、接近传感器、磁传感器、陀螺仪传感器、温度湿度传感器、红外传感器和速度加速度传感器中的至少一个或其组合。图4是用于描述根据本公开的实施例的由语音识别装置200执行的执行语音识别的方法的示图。参照图4,语音识别装置200的处理器220可以包括模型管理器410、网络状态确定器420和语音识别器430。根据本实施例的网络状态确定器420可以确定语音识别装置200是否连接到网络。根据本实施例,如果语音识别装置200连接到网络,则语音识别装置200可以通过使用语音识别器430的服务器连接语音识别模块431对语音输入执行语音识别。如果语音识别装置200没有连接到网络,则语音识别装置200可以通过使用语音识别器430的嵌入式语音识别模块433对语音输入执行语音识别。模型管理器410可以管理由嵌入式语音识别模块433使用的语音识别模型。模型管理器410可以管理语音识别模型。由模型管理器410管理的语音识别模型可以包括基本上用于执行语音识别的基本语音识别模型411,而不管用户信息或语音识别装置200操作的环境。另外,由模型管理器410管理的语音识别模型可以包括基于用户信息预测的要用于执行语音识别的预测语音识别模型413。在下面的描述中,可以根据各个实施例对基本语音识别模型411和预测语音识别模型413进行分类,并且可以描述各个实施例,或者基本语音识别模型411和预测语音识别模型413可以统称为“语音识别模型”,而不区分基本语音识别模型411和预测语音识别模型413,并且可以描述各个实施例。可选地,在下面的描述中,可以根据各个实施例对基本语音识别模型411和预测语音识别模型413进行分类,并且可以描述各个实施例,或者基本语音识别模型411或预测语音识别模型413可以称为“语音识别模型”,并且可以描述每个实施例。模型管理器410可以管理至少一个基本语音识别模型411。模型管理器410可以进一步管理预测语音识别模型413。模型管理器410可以将基于用户信息预测的要使用的语音识别模型确定为预测语音识别模型413。例如,模型管理器410可以确定与基于用户信息预测的话语相关的预测语言模型。模型管理器410可以确定基本语音识别模型411或预测语音识别模型413中的至少一个的使用方法。嵌入式语音识别模块433可以基于由模型管理器410确定的使用方法,通过使用基本语音识别模型411或预测语音识别模型413中的至少一个来对用户输入的语音进行语音识别,并且可以生成语音识别的结果。当网络连接充足时,服务器连接语音识别模块431可以通过使用存储在服务器中的大容量语音识别模型401对用户输入的语音执行语音识别,并且可以生成语音识别的结果。当网络连接充足时,模型管理器410可以基于存储在服务器中的大容量语音识别模型401来更新基本语音识别模型411或预测语音识别模型413中的至少一个。例如,模型管理器410可以下载存储在大容量语音识别模型401中的至少一个语音识别模型,从而生成并存储新的预测语音识别模型。可选地,模型管理器410可以从大容量语音识别模型401下载新更新的基本语音识别模型。可选地,模型管理器410可以将至少一个语音识别模型新分类到基本语音识别模型411中并且可以管理作为预测语音识别模型413被管理的至少一个语音识别模型。如图4所示,语音识别装置200可以基于用户信息预先下载预测的用于执行语音识别的语音识别模型。语音识别装置200可以通过使用预先下载的语音识别模型对用户输入的语音进行语音识别。例如,用户信息可以包括用户输入的目的地信息。目的地信息可以包括关于从当前位置到目的地的路线的信息。例如,用户信息可包括关于登记的个人日程的信息、关于目的地的信息、目的地的网络状态、以及包括车辆的剩余燃料量的车辆状态信息、基于剩余燃料量的可用驾驶距离、维护历史等。例如,语音识别模型可以包括语言模型。语音识别装置200可以基于用户输入信息包括关于所计划的到特定目的地的移动的信息、或由语音识别装置200自动接收的信息从服务器中的大容量语音识别模型401预先下载与针对特定目的地预测的话语相关的预测语言模型。即使在向特定目的地移动的同时网络连接不充足,语音识别装置200也可以通过使用预先下载的语音识别模型来执行语音识别。因此可以保持高语音识别率。在下文中,现在将描述由语音识别装置200执行的特定操作。下面描述的方法的每个操作可以由语音识别装置200中的每个配置执行。图5是根据本公开的实施例的由语音识别装置200执行的语音识别方法的流程图。参照图5,在操作S510中,语音识别装置200可以基于用户信息确定语音识别模型。例如,语音识别装置200可以基于用户信息确定预测的要用于执行语音识别的语音识别模型。用户信息可以包括关于用户的特征的信息、关于用户所处环境的信息、关于用户所在车辆的信息、关于用户将要移动到的目的地的信息或用户输入的信息中的至少一个。当语音识别装置200从语音识别装置200的用户接收用户输入时,如果用户所处环境发生变化和或如果使用中的语音识别模型的使用时段期满,则语音识别装置200可以基于用户信息确定语音识别模型。语音识别模型可以包括预处理模型、声学模型或语言模型中的至少一个。例如,语音识别装置200可以确定包括与基于用户信息预测的话语相关的预测语言模型的语音识别模型。语音识别装置200可以基于用户信息确定语言模型的域。语音识别装置200可以基于关于包括在用户信息中的用户的特征的信息来确定包括在确定的域中的语言模型的范围。语音识别装置200可以将包括在所确定的范围中的至少一个语言模型确定为预测语言模型。语音识别装置200可以考虑语音识别装置200中的存储器250的容量来确定预测语言模型。语音识别装置200可以将包括在不超过语音识别装置200的存储器250容量的范围内的语言模型确定为预测语言模型。例如,语音识别装置200可以基于关于用户移动到目的地所采取的路线的信息来确定包括与该路线中包括的第一点相关的语言模型的预测语言模型。作为另一示例,语音识别装置200可以基于存储在语音识别装置200中的用户日程信息来确定与用户将要位于的区域相关的预测语言模型。与该区域相关的预测语言模型可以包括与该区域的名称相关的语言模型或与该区域中使用的外语相关的预测语言模型中的至少一个。将参照图7详细描述基于用户信息确定预测语言模型的具体方法。语音识别装置200可以确定语音识别模型的使用方法。语音识别模型的使用方法可以包括语音识别模型的使用时段、使用语音识别模型后处理语音识别模型的方法或语音识别模型的可靠性中的至少一个。语音识别装置200可以确定在使用语音识别模型之前和之后处理语音识别模型的方法,作为语音识别模型的使用方法。例如,语音识别装置200可以确定在使用时段之前停用预测语言模型,然后在使用时段期间激活预测语言模型。在使用时段之后,语音识别装置200可以确定停用或删除预测语言模型。语音识别装置200可将所确定的使用方法存储为预测语言模型的元数据。在操作S520中,语音识别装置200可以下载语音识别模型。语音识别装置200可以从连接到语音识别装置200的服务器或连接到语音识别装置200的电子设备中的至少一个下载语音识别模型。语音识别装置200可以考虑网络连接的状态来确定下载语音识别模型的时间。当语音识别装置200预测到在用户向目的地移动所采用的路线中包括的第一点处用于语音识别装置200的通信的网络状态不充足时,语音识别装置200可以在到达第一点之前下载与第一点相关的语音识别模型。例如,当语音识别模型包括与预测的话语相关的预测语言模型时,语音识别装置200可以确定包括与该路线中包括的第一点相关的语言模型的预测语言模型,并且可以在到达第一点之前下载该预测语言模型。在操作S530中,语音识别装置200可以通过使用语音识别模型来执行语音识别。语音识别装置200可以从包括来自用户的话语的输入音频信号中检测语音,并且可以对该语音执行语音识别。语音识别装置200可以确定语音识别模型的使用方法,并且可以基于所确定的使用方法使用语音识别模型,从而执行语音识别。例如,语音识别装置200可以在预测语音识别模型的使用时段期间通过使用预测语音识别模型来执行语音识别,该使用时段被包括在使用方法中。在预测语音识别模型的使用时段期满之后,语音识别装置200可以基于使用方法删除或停用预测语音识别模型。在操作S540中,语音识别装置200可以输出执行语音识别的结果。语音识别装置200可以输出由嵌入式语音识别模块执行的语音识别的结果。例如,执行语音识别的结果可以包括从语音识别命令中提取的文本。作为另一示例,执行语音识别的结果可以对应于执行屏幕,在该执行屏幕中正在执行与执行语音识别的结果相对应的操作。语音识别装置200可以执行与执行语音识别的结果相对应的操作。例如,语音识别装置200可以确定与执行语音识别的结果相对应的语音识别装置200的功能,并且可以输出其中正在执行该功能的执行屏幕。可选地,语音识别装置200可以将与执行语音识别的结果相对应的关键字发送到外部服务器,可以从外部服务器接收与发送的关键字相关的信息,并且可以将该信息输出到显示器。例如,当基于用户信息确定的语音识别模型包括预测语言模型时,语音识别装置200可以基于与外语相关的预测语言模型输出在外语和用户使用的语言之间执行翻译的结果。在根据本实施例的语音识别装置200确定语音识别模型的使用方法之后,语音识别装置200可以下载语音识别模型。然而,本公开不限于此,并且语音识别装置200可以在语音识别装置200下载语音识别模型之后确定语音识别模型的使用方法。根据本实施例的语音识别装置200可以下载语音识别模型,如图5所示,并且可以基于用户的使用历史或用户的反馈来更新语音识别模型。另外,服务器可以基于用户的使用历史或用户的反馈来更新存储的语音识别模型。服务器可以连接到多个语音识别装置。服务器可以基于或来自一个用户的使用历史或反馈或者基于来自多个用户的使用历史或反馈来更新语音识别模型。例如,存储与德国相关的语言模型的服务器可以基于第一语音识别装置的第一用户5月在德国旅行时使用的词语诸如地名,建筑物名称,街道名称等、或者对语音识别结果的反馈,来更新与德国相关的语言模型。接下来,服务器可以基于第二语音识别装置的第二用户6月在德国旅行时使用的词语、或者对语音识别结果的反馈,来更新与德国相关的语言模型。图6是根据本公开的实施例的由语音识别装置200执行的管理语音识别模型的方法的流程图。图6所示的每个操作可以由图4的模型管理器410或网络状态确定器420执行。在语音识别装置200更新语音识别模型之前,语音识别装置200可以总是具有至少一个语音识别模型。语音识别装置200可以管理基本上且总是使用的基本语音识别模型、当前语音识别环境中附加使用的当前语音识别模型、或者应用于预测语音识别环境的预测语音识别模型中的至少一个。当当前语音识别模型的使用时段期满,接收到用于更新语音识别模型的用户输入,接收到借此可以预测到语音识别环境的改变的用户输入,和或语音识别装置200操作的环境发生变化时,语音识别装置200可以执行图6所示的操作。例如,语音识别装置200操作的环境改变的情况可以指示语音识别装置200的位置改变或者连接到语音识别装置200的车辆的状态改变。在操作S610中,语音识别装置200可以获得用户信息。例如,语音识别装置200可以包括一个或多个传感器,并且可以获得由传感器感测的多条用户信息。例如,包括在语音识别装置200中的传感器可以感测与语音识别装置200的用户的特征有关的信息、与用户所处环境相关的信息、与用户所在车辆相关的信息等。例如,语音识别装置200可以包括照度传感器、生物传感器、倾斜传感器、位置传感器、接近传感器、磁传感器、陀螺仪传感器、温度湿度传感器、红外传感器和速度加速度传感器中的至少一个,或其组合。作为另一示例,语音识别装置200可以获得由外部电子设备感测的用户信息。例如,外部电子设备可以包括照度传感器、生物传感器、倾斜传感器、位置传感器、接近传感器、磁传感器、陀螺仪传感器、温度湿度传感器、红外传感器、速度加速度传感器中的至少一个,或其组合。作为另一示例,语音识别装置200可以获得用户输入作为语音识别装置200的用户信息。例如,语音识别装置200可以从用户输入获得用户信息,诸如关于语音识别装置200操作的位置的信息、与语音识别装置200的用户的特征相关的信息等。作为另一示例,语音识别装置200可以通过与另一电子设备通信来获得用户信息。例如,当语音识别装置200经由短程通信连接到电子控制设备或车辆的中央信息显示器时,语音识别装置200可以获得与用户所在车辆相关的信息作为用户信息。在操作S620中,语音识别装置200可以分析所接收的用户信息。用户信息可以包括用户的使用历史、语音识别装置200操作的当前位置、时间信息或关于预测的语音识别环境的信息中的至少一个。例如,关于预测的语音识别环境的信息可以包括用户输入包括目的地信息。例如,关于预测的语音识别环境的信息可以包括诸如个人日程登记信息、目的地的网络状态以及以自动方式间接接收的车辆状态的信息。在操作S630中,语音识别装置200可以基于分析的结果确定语音识别模型。图6的操作S630可以对应于图5的操作S510。关于图5的描述可以应用于对应于图5的操作S510的图6的操作S630。因此,在此省略了重复操作的描述。在操作S640中,语音识别装置200可以确定语音识别模型的使用方法。语音识别模型的使用方法可以存储为语音识别模型的元数据。语音识别模型的使用方法可以包括语音识别模型的使用时段、使用语音识别模型之后处理语音识别模型的方法或语音识别模型的可靠性中的至少一个。关于图5的操作S510的描述可以应用于确定语音识别模型的使用方法的方法。因此,在此省略了重复操作的描述。在操作S650中,语音识别装置200可以确定基于用户信息确定的语音识别模型是否是存储在语音识别装置200中的嵌入式存储器中的语音识别模型。如果确定的语音识别模型没有存储在嵌入式存储器中,则语音识别装置200可以确定语音识别装置200是否连接到网络操作S660。如果语音识别装置200连接到网络,则语音识别装置200可以确定是否是更新语音识别模型的时间操作S670。例如,如果登记了1年后前往德国的日程,则语音识别装置200可以确定与德国相关的语音识别模型。例如,与德国相关的语音识别模型可以包括用于韩语和德语之间的翻译的语言模型、根据德语的特征的声学模型、与德国的地名相关的语言模型等。然而,因为将要使用与德国相关的语音识别模型的预测时间是一年之后,所以语音识别装置200可以确定当前时间不是更新语音识别模型的时间。当要使用的语音识别模型在从现在起的预定时段内时,考虑语音识别模型的使用方法,语音识别装置200可以确定是更新语音识别模型的时间。作为另一示例,当语音识别装置200连接到免费网络complimentarynetwork时,语音识别装置200可以确定是更新语音识别模型的时间。例如,当语音识别装置200仅连接到收费的移动通信网络时,语音识别装置200可以确定不是更新语音识别模型的时间,并当语音识别装置200可以连接到基于Wi-Fi的网络时,语音识别装置200可以确定是更新语音识别模型的时间。在操作S680中,当语音识别装置200确定是更新语音识别模型的时间时,语音识别装置200从服务器或电子设备中的至少一个下载所确定的语音识别模型,从而更新预先存储的语音识别模型。如果语音识别装置200没有连接到网络,则语音识别装置200可以确定是否可能使用预先存储的语音识别模型,代替所确定的语音识别模型操作S690。当语音识别装置200确定不可能使用预先存储的语音识别模型,代替所确定的语音识别模型时,语音识别装置200可以等待直到网络连接充足并且可以下载所确定的语音识别模型。图7是用于描述根据本公开的实施例的由语音识别装置200执行的确定包括在基于用户信息确定的语音识别模型中的预测语言模型的方法的示图。图7的操作S710和S720可以对应于图6的操作S620和S630。省略其详细描述。参照图7,在操作S710中,语音识别装置200可以分析所接收的用户信息。用户信息可以包括关于用户的预先存储的信息、用户新输入的信息以及关于语音识别装置200操作的周围环境的信息。例如,用户信息可以包括关于用户的性别、爱好、工作、年龄等信息。语音识别装置200可以基于用户信息确定预测语言模型的域。预测语言模型的域可以指示语音识别装置200使用预测语言模型尝试识别的词语的范围。语音识别装置200可以基于用户信息按照深度和根来确定预测语言模型的域的范围。当语言模型具有分层结构时,预测语言模型的域的深度可以指示包括在预测语言模型中的语言模型的顶部和底部范围。当语言模型之间具有相似性时,预测语言模型的域的根可以指示包括在预测语言模型中的语言模型的字段field,所述字段被包括在所确定的相似性的范围中。在操作S720中,语音识别装置200可以基于分析用户信息的结果来确定包括在预测语言模型中的语言模型。语音识别装置200可以将在操作S710中确定的范围中包括的语言模型确定为预测语言模型。只要语言模型不超过语音识别装置200的存储容量,语音识别装置200就可以将在操作S710中确定的范围中包括的语言模型确定为预测语言模型。将参照图8描述其中语音识别装置200基于用户信息确定包括在预测语言模型中的语言模型的范围的具体示例。基于每个用户信息确定的语音识别模型的示例如下。语音识别装置200可以基于用户信息确定包括预处理模型、声学模型或语言模型中的至少一个的语音识别模型,并且可以在执行语音识别时使用所确定的语音识别模型。语音识别装置200可以通过使用与基于关于用户的特征的信息预测的话语相关的语言模型来执行语音识别。语音识别装置200可以获得关于用户的特征的信息。语音识别装置200可以从用户接收关于用户的特征的信息的直接输入。可选地,语音识别装置200可以从嵌入式存储器或预先存储在外部服务器中的用户简档获得关于用户特征的信息。可选地,语音识别装置200可以从嵌入式传感器或外部传感器发送的信息中获得关于用户特征的信息。可选地,语音识别装置200可以学习用户使用语音识别装置200的模式,并且可以从学习的结果获得关于用户的特征包括使用历史的特征等的信息。例如,关于用户的特征的信息可以包括年龄、性别、教育水平、工作、家庭状况、国籍、使用的语言、生物信息或用户的使用历史中的至少一个。语音识别装置200可以用基本上且经常使用的基本语言模型替换并使用预测语言模型,所述预测语言模型是已经基于关于用户的特征的信息确定的。例如,语音识别装置200可以用基本上且总是使用的基本语言模型来替换预测语言模型,所述预测语言模型是已经基于关于不太可能改变或根据特定标准预测会改变的用户特征的信息确定的。例如,不太可能改变的用户特征可以包括性别、国籍等,并且根据特定标准预测会改变的用户特征可以包括年龄。例如,语音识别装置200可以基于用户的年龄或性别来确定和下载预测语言模型。语音识别装置200可以将语言模型确定为预测语言模型,该语言模型包括关于根据年龄组或性别组主要使用的词语的信息。例如,如果用户处于二十几岁,则语音识别装置200可以将语言模型确定为预测语言模型,该语言模型包括关于二十几岁的人通常感兴趣的歌手姓名的信息。例如,如果用户是男性,则语音识别装置200可以将语言模型确定为预测语言模型,该语言模型包括关于游戏相关词语的信息。如果用户是女性,则语音识别装置200可以将语言模型确定为预测语言模型,该语言模型包括关于化妆品相关词语的信息。作为另一示例,语音识别装置200可以基于用户的教育水平来确定和下载预测语言模型。语音识别装置200可以将语言模型确定为预测语言模型,该语言模型包括关于与根据每个用户的教育水平而变化的知识水平相对应的词语的信息。例如,如果用户是小学生,则语音识别装置200可以从预测语言模型中排除包括关于与微分方程相关的词语的信息的语言模型。另一方面,如果用户是主修数学的大学生,则语音识别装置200可以将语言模型确定为预测语言模型,该语言模型包括关于与微分方程相关的词语的信息。作为另一示例,语音识别装置可以基于用户的工作来确定和下载预测语言模型。语音识别装置200可以将语言模型确定为预测语言模型,该语言模型包括关于用户根据他她的工作使用的技术术语的信息。如果用户是心脏病专家,则语音识别装置200可以将语言模型确定为预测语言模型,该语言模型包括关于与心脏病相关的词语的信息。作为另一示例,语音识别装置可以基于用户的家庭状况来确定和下载预测语言模型。语音识别装置200可以将语言模型确定为预测语言模型,该语言模型包括关于根据家庭状况而变化的兴趣的信息。例如,如果用户是抚养孩子的父母,则语音识别装置200可以将语言模型确定为预测语言模型,该语言模型包括关于儿童保育相关词语的信息。作为另一示例,语音识别装置可以基于用户的国籍或使用的语言中的至少一个来确定和下载预测语言模型。语音识别装置200可以将语言模型确定为预测语言模型,该语言模型包括关于根据国籍而变化的兴趣的信息。例如,如果用户是在韩国使用韩语的德国人,则语音识别装置200可以将语言模型确定为预测语言模型,该语言模型包括关于与德国相关的韩语词语的信息。作为另一示例,语音识别装置可以基于用户的生物信息确定和下载预测语言模型。用户的生物信息可以包括关于用户的脑波、心跳、目光或运动中的至少一个的信息。语音识别装置200可以将语言模型确定为预测语言模型,该语言模型与根据用户的条件预测的话语相关。例如,语音识别装置200可以基于用户的状态来确定用户是否正在锻炼。当语音识别装置200确定用户正在锻炼时,语音识别装置200可以将语言模型确定为预测语言模型,该语言模型包括关于锻炼相关词语的信息。作为另一示例,语音识别装置200可以基于用户的使用历史来确定和下载预测语言模型。语音识别装置200可以获知通过语音识别装置200进行呼叫的用户的历史、信息搜索历史、用户携带语音识别装置200移动的历史或经由语音识别装置200使用社交网络服务站点SNS的历史中的至少一个。基于获知的结果,语音识别装置200可以将语言模型确定为预测语言模型,该语言模型包括关于用户的兴趣的信息。例如,包括关于用户的兴趣的信息的语言模型可以包括关于与用户的兴趣相关的词语以及与用户或用户的朋友在SNS上更新的内容相关的词语的信息。例如,语音识别装置200可以基于呼叫历史将语言模型确定为预测语言模型,该语言模型包括关于与频繁通信的联系人相关的词语的信息。例如,语音识别装置200可以基于信息搜索历史将语言模型确定为预测语言模型,该语言模型包括关于与频繁搜索的词语相关的词语的信息。例如,语音识别装置200可以基于移动历史将语言模型确定为预测语言模型,该语言模型包括关于与移动路线相关的词语的信息。语音识别装置200可以从由语音识别装置200执行的各种应用接收的信息、存储在语音识别装置200中的信息、关于连接到语音识别装置200的电子设备的信息、以及关于位于语音识别装置200周围的电子设备的信息中,获得用户信息。语音识别装置200可以确定与基于所获得的用户信息预测的话语相关的预测语言模型。语音识别装置200可以下载所确定的预测语言模型,并且可以使用预测语言模型,从而执行语音识别。在本实施例中,语音识别装置200可以从由语音识别装置200执行的各种应用接收的信息中获得用户信息。例如,语音识别装置200可以预先下载与基于经由语音识别装置200所提供的日历应用输入的用户日程信息预测的话语相关的预测语言模型。当通过日历应用登记海外商务旅行的日程时,语音识别装置200可以确定与针对海外商务旅行的外国相关的预测语言模型。例如,所确定的预测语言模型可以包括用于韩语和该外国的语言之间的翻译的语言模型,与该外国的地名相关的语言模型等。另外,语音识别装置200可以基于停留时间确定下载预测语言模型的时间,可以确定其中要使用预测语言模型的使用时段,并且可以在预测语言模型期满之后确定删除该预测语言模型。例如,语音识别装置200可以预先下载与基于关于经由语音识别装置200所提供的导航应用输入的目的地和出发地的信息预测的话语相关的预测语言模型。可选地,语音识别装置200可以从连接到语音识别装置200的导航设备接收关于目的地和出发地的信息,并且可以预先下载与基于接收到的信息预测的话语相关的预测语言模型。语音识别装置200可以确定与从出发地到目的地的移动路线相关的预测语言模型。例如,与移动路线相关的预测语言模型可以包括与移动路线上的建筑物名称,街道名称或地名相关的语言模型。例如,语音识别装置200可以预先下载与基于关于用户的兴趣的信息预测的话语相关的预测语言模型,该信息是经由语音识别装置200所提供的个人简档存储功能输入的。可选地,语音识别装置200可以预先下载与基于关于用户的兴趣的信息预测的话语相关的预测语言模型,该信息被输入到存储在外部服务器中的个人简档。当登记或更新用户的简档时,语音识别装置200可以确定与用户的兴趣相关的预测语言模型。作为另一示例,语音识别装置200可以从存储在语音识别装置200中的信息获得用户信息。例如,语音识别装置200可以预先下载与基于存储在语音识别装置200中的备忘录或文件预测的话语相关的预测语言模型。语音识别装置200可以将语言模型确定为预测语言模型,该语言模型包括关于备忘录中包含的词语的信息。语音识别装置200可以通过将语言模型确定为预测语言模型来下载预测语言模型,该语言模型与存储在语音识别装置200中的音乐、图像或运动画面中的至少一个相关。语音识别装置200可以将语言模型确定为预测语言模型,该语言模型包括关于与所存储的文件的名称相关的词语,所存储的文件的属性或包括在该文件中的内容的信息。例如,语音识别装置200可以下载与基于存储在语音识别装置200中的电话簿中包括的联系人预测的话语相关的预测语言模型。语音识别装置200可以通过确定语言模型为预测语言模型来下载预测语言模型,该语言模型包括关于对电话簿中包括的联系人进行分类的组之一的姓名、联系人或头衔中的至少一个的信息。作为另一示例,语音识别装置200可以从关于连接到语音识别装置200的电子设备的信息或关于位于语音识别装置200周围的电子设备的信息中的至少一个获得用户信息。例如,位于语音识别装置200周围的电子设备可以包括可穿戴设备、移动设备、家用电器、位于公共场所的广告设备或位于公共场所的引导设备中的至少一个。例如,语音识别装置200可以通过确定语言模型为预测语言模型来下载预测语言模型,该语言模型包括关于用于控制连接到语音识别装置200的电子设备或位于语音识别装置200周围的电子设备中的至少一个的语音识别命令的信息。例如,所确定的预测语言模型可以包括关于与连接到语音识别装置200的电子设备或位于语音识别装置200周围的电子设备中的至少一个所提供的内容的标题,内容的属性,可支持的功能和可支持的操作相关的词语的信息。语音识别装置200可以从预测语言模型中排除语言模型,该语言模型包括关于与未位于语音识别装置200周围的电子设备相关的语音识别命令的信息。语音识别装置200可以通过使用与基于关于用户所处环境的信息预测的话语相关的语言模型来执行语音识别。语音识别装置200可以获得关于用户所处环境的信息。语音识别装置200可以直接从用户接收关于周围环境的信息。可选地,语音识别装置200可以从自嵌入式传感器或外部电子设备接收的信息获得关于周围环境的信息。例如,语音识别装置200可以基于用户的位置、天气、时间、周围交通状况、网络状态或周围的人中的至少一个来确定预测语言模型。语音识别装置200可以基于用户的位置确定下载预测语言模型的时间。例如,如果语音识别装置200在车辆中,则网络连接可用,因此,语音识别装置200可以下载预测语言模型,但是,如果语音识别装置200在飞机中,则网络连接不可用。因此,语音识别装置200可以确定不可能下载预测语言模型。语音识别装置200可以确定与基于用户是否在车辆中预测的话语相关的预测语言模型。例如,当用户在车辆中时,语音识别装置200可以基于车辆的状态或与车辆中的用户一起的同伴乘客中的至少一个来确定预测语言模型。例如,语音识别装置200可以基于关于车辆的燃料量和可用的驾驶距离的信息,下载关于搜索加油站的预测语言模型。语音识别装置200可以基于车辆的当前燃料量来估计可用的驾驶距离,并且可以将语言模型确定为预测语言模型,该语言模型包括关于与在可用的驾驶距离内的加油站的名称和通往加油站的路线相关的词语的信息。例如,语音识别装置200可以通过基于与车辆相关的维护信息确定预测语言模型来下载预测语言模型。当语音识别装置200确定是对车辆进行维护的时间时,语音识别装置200可以将语言模型确定为预测语言模型,该语言模型包括关于与车辆维护相关的词语诸如轮胎压力,机油等的信息。例如,语音识别装置200可以通过基于关于与车辆中的用户一起的同伴乘客的信息确定预测语言模型来下载预测语言模型。因为当仅用户在车辆中时预测的话语不同于当同伴乘客与车辆中的用户一起时预测的话语,所以语音识别装置200可以将不同的语言模型确定为预测语言模型。当同伴乘客与车辆中的用户在一起时,语音识别装置200可以基于与同伴乘客的关系来确定和下载预测语言模型。例如,语音识别装置200可以基于车辆的驾驶状态来确定预测语言模型。基于车辆的种类,车辆的行驶速度,由于窗户是打开还是关闭而存在或不存在外部噪音中的至少一个,语音识别装置200可以选择并且在语音识别中使用声学模型,该声学模型是适当的并且具有反射到其上的噪声。作为另一示例,语音识别装置200可以确定与基于用户是否在内部预测的话语相关的预测语言模型。例如,如果用户位于建筑物中,则语音识别装置200可以基于建筑物的结构确定预测语言模型。语音识别装置200可以选择已经被应用了输入到语音识别装置200的语音特征的适当的声学模型,并且可以基于用户所在建筑物中的位置例如,用户是否在电梯、楼梯等,在语音识别中使用该声学模型。例如,如果用户位于建筑物中,则语音识别装置200可以基于建筑物的使用来确定预测语言模型。因为当用户在餐馆中时预测的话语不同于当用户在商店中时预测的话语,所以语音识别装置200可以将不同的语言模型确定为预测语言模型。例如,如果用户位于外部,则语音识别装置200可以将语言模型确定为预测语言模型,该语言模型包括关于周围建筑物的名称、地名、街道名称等的信息。此外,如果用户在外面移动,则语音识别装置200可以将语言模型确定为预测语言模型,该语言模型包括关于移动路线上的建筑物名称,地名,街道名称等的信息。作为另一示例,语音识别装置200可以确定与基于周边交通状况预测的话语相关的预测语言模型。例如,如果交通状况是畅通的,则语音识别装置200可以预测用户将要发出与驾驶车辆相关的话语。如果交通状况是畅通的,则语音识别装置200可以通过将语言模型确定为预测语言模型来下载预测语言模型,该语言模型与驾驶该车辆相关。例如,如果交通状态是不畅通并且因此存在交通拥堵,则语音识别装置200可以预测用户将要发出与驾驶该车辆无关的话语。如果交通状态不畅通,则语音识别装置200可以通过将语言模型确定为预测语言模型来下载预测语言模型,该语言模型与控制与驾驶该车辆无关的其他功能相关。作为另一示例,语音识别装置200可以确定与基于天气,时间,季节等预测的话语相关的预测语言模型。例如,语音识别装置200可以基于天气确定与用于控制空调或加热的话语相关的预测语言模型。例如,语音识别装置200可以将与天气报告相关的语言模型确定为预测语言模型。例如,语音识别装置200可以将语言模型确定为预测语言模型,该语言模型包括关于预测的将由用户针对天气发出的词语的信息。语音识别装置200可以将语言模型确定为预测语言模型,该语言模型包括关于当天气变冷时用户经常搜索的感冒或食物的信息。作为另一示例,语音识别装置200可确定与基于与周围人的关系预测的话语相关的预测语言模型。因为预测的由用户给出的话语根据与周围人的关系而变化,所以语音识别装置200可将不同的语言模型确定为预测语言模型。语音识别装置200可以根据语音识别装置200操作的环境选择适当的预处理模型,并且可以在语音识别中使用该预处理模型。语音识别装置200可以根据语音识别装置200操作的环境选择适当的预处理模型,并且可以对接收的输入信号执行预处理。预处理可以指示在执行语音识别之前执行的处理,以从包括各种类型的噪声和语音信号的输入音频信号中提取用于执行语音识别的语音信号。例如,语音识别装置200可以执行,作为预处理的,去除噪声,改善SNR,去除回波等。预处理模型可以包括噪声模型、距离模型、回波模型等。例如,语音识别装置200可以根据语音识别装置200周围的环境噪声的类型来选择适当的噪声模型,并且可以对接收的输入信号执行预处理。噪声模型可以指示关于静态噪声、嘈杂噪声、脉冲噪声等的模型。例如,语音识别装置200可以根据接收语音信号的距离来选择适当的距离模型,并且可以对接收的输入信号执行预处理。距离模型可以包括长距离模型或者短距离模型,该长距离模型包括关于从远处源接收的语音信号的特征的信息,该短距离模型包括关于从近处源接收的语音信号的特征的信息。当接收到具有长距离的语音信号时,语音识别装置200可以针对SNR低的语音信号选择并使用距离模型。当接收到具有短距离的语音信号时,语音识别装置200可以针对SNR高的语音信号选择并使用距离模型。例如,语音识别装置200可以根据回波的特性选择适当的回波模型,并且可以对接收的输入信号执行预处理。回波模型可以包括关于如下情况的语音信号的特征的信息,在该情况中语音信号与从语音识别装置200的扬声器输出的语音信号相同并且以其间的时间延迟经由语音识别装置200的麦克风被输入。作为另一示例,语音识别装置200可以根据语音识别装置200操作的环境选择适当的声学模型,并且可以在语音识别中使用该声学模型。例如,语音识别装置200可以根据语音识别装置200周围的环境噪声的类型和水平来选择适当的声学模型,并且可以在语音识别中使用该声学模型。根据环境噪声的声学模型可以包括声学模型,该声学模型包括关于排除噪声的清晰语音信号的特征的信息或关于包括重度噪声的语音信号的特征的信息。作为另一示例,语音识别装置200可以基于用户的特征来确定声学模型。例如,语音识别装置200可以根据说话者的发音选择包括适当发音模型的声学模型,并且可以在语音识别中使用该声学模型。发音模型可以包括适合于标准发音的识别模型或适合于个体发音特征的识别模型。例如,当语音识别装置200确定用户醉酒,困倦或从他她的睡眠中醒来时,语音识别装置200可以基于所确定的用户的状态将声学模型确定为预测语言模型,该声学模型包括关于没有正确说出发音的信息。图8是用于描述根据本公开的实施例的由语音识别装置200执行的基于用户信息确定预测语言模型中包括的语言模型的范围的方法的示图。参照图8,当语音识别装置200基于用户信息预测到用户要给出专业和严肃的话语时,语音识别装置200可以将预测语言模型的域的深度确定为深。例如,语音识别装置200可以确定垂直预测语言模型,该垂直预测语言模型是域深度深且域根窄的预测语言模型。另一方面,当语音识别装置200基于用户信息预测到用户要给出非专业话语时,语音识别装置200可以将预测语言模型的域的深度确定为浅。例如,语音识别装置200可以确定水平预测语言模型,该水平预测语言模型是域深度浅且域根宽的预测语言模型。图8示出当语音识别装置200预测到用户要发出与“冷”相关的话语时,由语音识别装置200基于用户的工作确定预测语言模型中包括的语言模型的范围的示例。如果用户801的工作是工程师,则语音识别装置200可以预测用户801可以给出与“冷”相关的非专业话语。因此,语音识别装置200可以确定与预测的用户801要发出的“冷”相关的水平预测语言模型。语音识别装置200可以将包括项目“冷”的“疾病”确定为预测语言模型的域的根,并且可以将域的深度确定为相对浅的“2”。语音识别装置200可以确定预测语言模型的域包括较低级语言模型804,其对应于从与“疾病”相关的语言模型803中确定的根并且对应于所确定的深度“2”。语音识别装置200可以确定预测语言模型的域,以包括与从根“疾病”开始在较低级别中首先包括的“冷”相关的语言模型,并且包括与从项目“冷”开始在较低级别中包括的“冷的症状,疾病的原因,患病区域,并发症”相关的语言模型。如果用户802的工作是医生,则语音识别装置200可以预测到用户802可以给出与“冷”相关的专业且严肃的话语。因此,语音识别装置200可以确定与预测的将由用户802发出的“冷”相关的垂直预测语言模型。语音识别装置200可以基于用户信息将与水平预测语言模型相同的“疾病”确定为预测语言模型的域的根,并且可以将域的深度确定为相对较深的“6”。语音识别装置200可以确定预测语言模型的域包括较低级语言模型805,其对应于从与“疾病”相关的语言模型803中确定的根并且对应于所确定的深度“6”。语音识别装置200可以确定预测语言模型的范围包括与从根“疾病”开始在较低级别中包括的“冷”相关的语言模型、与从项目“冷”开始在较低级别中包括的“患病区域”相关的语言模型、与从项目“患病区域”开始在较低级别中包括的“每个患病区域的症状”相关的语言模型、与从“每个患病区域的症状”开始在较低级别中包括的“症状的严重性”相关的语言模型、与从项目“症状的严重性”开始在较低级别中包括的“疾病的名称”相关的语言模型、以及与从项目“疾病的名称”开始在较低级别中包括的“治疗”相关的语言模型。图9是用于描述根据本公开的实施例的由语音识别装置200执行的基于用户日程下载用于翻译的语言模型的方法的示图。假设语音识别装置200基于关于用户日程的信息确定并下载预测语言模型的情况来提供描述。语音识别装置200的用户10可以在语音识别装置200中登记前往法国和德国的旅行的日程。语音识别装置200可以将语言模型确定为预测语言模型,该语言模型与用户10将要旅行的国家中使用的外语相关。例如,参照图9,语音识别装置200可以将与德国和法国相关的语言模型确定为预测语言模型,该语言模型与在用户10将要旅行的国家中使用的外语相关。语音识别装置200可以确定预测语言模型的使用方法。语音识别装置200可以基于旅行日程确定预测语言模型的使用时段。语音识别装置200可以确定预测语言模型是否是存储在语音识别装置200中的嵌入式存储器中的语言模型。当预测语言模型没有存储在嵌入式存储器中时,语音识别装置200可以确定网络连接是否可用。语音识别装置200可以基于网络连接的状态来确定下载预测语言模型的时间。参照图9,位于韩国的语音识别装置200可以确定当前网络连接非常流畅但是在法国或德国可能网络连接不可用。因此,语音识别装置200可以确定当前时间是更新预测语言模型的时间。除了作为默认存储的语言模型的韩语识别语言模型和英语识别语言模型之外,语音识别装置200还可以存储德语识别语言模型和法语识别语言模型作为预测语言模型。语音识别装置200可以基于预测语言模型的使用时段来确定在使用时段之前不使用预测语言模型。在用户10离开以前往德国或法国之前,语音识别装置200不需要识别德语语音或法语语音。因此,语音识别装置200可以在使用时段之前停用预测语言模型,从而增加关于语音识别命令的识别时间并提高识别准确度。当用户10停留在韩国时,语音识别装置200可以识别英语和韩语的语音。参照图9,根据用户10的旅行日程位于法国的语音识别装置200可以通过使用嵌入式语音识别模块来执行语音识别,这是因为网络连接不可用。语音识别装置200可以使用预先下载的预测语言模型通过使用嵌入式语音识别模块来执行语音识别。语音识别装置200可以基于法语识别语言模型的使用时段来激活法语识别语言模型,并且可以停用英语识别语言模型。当用户10停留在法国时,语音识别装置200可以识别法语和韩语的语音。语音识别装置200可以通过使用预测语言模型来使用在法语和韩语之间进行翻译的功能。接下来,参照图9,根据用户10的旅行日程位于德国的语音识别装置200可以通过使用嵌入式语音识别模块来执行语音识别,这是因为网络连接仍然不可用。语音识别装置200可以使用预先下载的预测语言模型通过使用嵌入式语音识别模块来执行语音识别。语音识别装置200可以基于德语识别语言模型的使用时段来激活德语识别语言模型,并且可以停用法语识别语言模型。当用户10停留在德国时,语音识别装置200可以识别德语和韩语的语音。语音识别装置200可以通过使用预测语言模型来使用在德语和韩语之间进行翻译的功能。因此,即使网络连接不可用,语音识别装置也可以以与通过使用服务器连接语音识别模块431执行的语音识别类似的高准确度执行语音识别。图10是用于描述根据本公开的实施例的由语音识别装置200执行的基于车辆的状态确定预测语言模型并执行语音识别的方法的示图。当语音识别装置200位于移动车辆中时,网络环境可能变得不稳定。因此,每当网络连接的状态变得不稳定时,可以频繁地使用语音识别装置200中的嵌入式语音识别模块。嵌入式语音识别模块可能由于其存储容量而仅对具有有限表达的话语执行语音识别,因此,关于具有用户的自然和各种表情的话语的语音识别功能可能恶化。语音识别装置200可以基于车辆相关信息诸如车辆的状态,车辆移动的路线等预先下载预测语言模型。语音识别装置200可以预先下载与关于车辆的各种表达相关的预测语言模型,所述表达是预测的将由用户说出的。因此,用户可以通过像用户与语音识别装置200进行对话一样自然的方式说话来控制语音识别装置200。语音识别装置200可以是但不限于通过以有线或无线方式连接到车辆的电子控制设备或CID中的至少一个来操作的移动计算装置,诸如智能电话,导航,PDA等。语音识别装置200可以包括在车辆的电子控制设备或CID中的至少一个中。语音识别装置200可以从包括在车辆中的各种电子组件,传感器或CID接收与车辆有关的信息。参照图10,图10示出当用户10借助车辆1001从他她的家去工作时车辆1001的燃料不足的示例。语音识别装置200可以在出发地即,他她的家获得关于车辆1001中的燃料不足的信息,并且可以预先下载关于搜索加油站的预测语言模型。语音识别装置200可以获得关于目的地的信息。例如,语音识别装置200可以从指示到目的地即,公司的移动的用户输入获得关于目的地的信息。例如,用户10可以通过使用由语音识别装置200提供的导航功能将目的地设置为公司。可选地,用户10可以经由车辆1001的导航设备输入关于作为公司的目的地的信息。作为另一示例,语音识别装置200可以获知驾驶车辆1001的用户10的模式,使得当用户10在通常上班时间位于车辆1001中时,语音识别装置200可以预测到目的地是公司。语音识别装置200可以获得关于车辆1001的操作状态的信息。例如,参照图10,语音识别装置200可以获得车辆1001的燃料量的信息。语音识别装置200可以基于关于目的地的信息或燃料量的信息中的至少一个来确定预测语言模型。语音识别装置200可以确定车辆1001的燃料量是否不足。语音识别装置200可以基于用于移动到目的地的燃料量来确定车辆1001的燃料量是否不足。例如,参照图10,语音识别装置200可以确定车辆1001的燃料量不足,并且可以确定与预测由用户10关于燃料不足给出的话语相关的预测语言模型。例如,语音识别装置200可以预测用户10将给出与搜索加油站的位置相关的话语,并且可以将语言模型确定为预测语言模型,该语言模型与搜索加油站相关。语音识别装置200可以确定与搜索加油站相关的预测语言模型的使用方法。语音识别装置200可以确定预测语言模型的使用时段、在使用预测语言模型之后处理预测语言模型的方法或者预测语言模型的可靠性中的至少一个为预测语言模型的使用方法。例如,语音识别装置200可以确定使用时段,使得预测语言模型仅可以在到目的地的移动期间使用。可选地,语音识别装置200可以确定使用时段,使得可以使用预测语言模型直到车辆1001的燃料量变得足够。在预测语言模型的使用方法期满之后,语音识别装置200可以确定删除或停用预测语言模型。语音识别装置200可以确定与搜索加油站相关的预测语言模型是否是存储在语音识别装置200中的嵌入式存储器中的语言模型。当预测语言模型没有存储在嵌入式存储器中时,语音识别装置200可以确定网络连接是否可用。基于网络连接的状态,语音识别装置200可以确定下载预测语言模型的时间。例如,参照图10,位于停在出发地的车辆1001中的语音识别装置200可以预测到,即使当前网络连接非常流畅,但是在车辆1001处于驾驶模式时网络连接也会变得不稳定。因此,语音识别装置200可以确定在车辆1001停在出发地时更新预测语言模型。除了与关于搜索加油站的有限表达相关的基本语言模型之外,语音识别装置200还可以另外存储语言模型作为预测语言模型,该语言模型与能够通过如在关于寻找加油站的自然对话中那样说话来控制语音识别装置200的表达相关。语音识别装置200可以将语言模型存储为预测语言模型,该语言模型与具有关于搜索加油站的自然和各种表达的话语相关。参照图10,位于驾驶车辆1001中的语音识别装置200具有不稳定的网络连接,因此,语音识别装置200可以通过使用嵌入式语音识别模块来执行语音识别。语音识别装置200可以通过使用预测语言模型来识别请求搜索加油站的用户10的各种表达。当车辆1001处于驾驶模式时,语音识别装置200可以通过使用预先下载的预测语言模型来执行语音识别。因此,即使网络连接不可用,语音识别装置200也可以以与使用服务器连接语音识别模块431执行的语音识别类似的高准确度对具有自然和各种表达的话语进行语音识别。如图10所示,当网络连接的状态变得不稳定,使得使用嵌入式语音识别模块时,根据现有技术的语音识别装置由于存储容量的限制能够仅对具有有限表达的语音识别命令1003,诸如“附近加油站信息”或“附近OO加油站信息”,执行语音识别。然而,根据本实施例的语音识别装置200可以基于车辆1001的状态预先下载并使用包括与搜索加油站相关的各种表达的预测语言模型。因此,即使用户10发出如在自然对话中的语音识别命令1005,诸如“我的汽油用光了”或“我要去加油站”,根据本实施例的语音识别装置200也可以将语音识别命令1005识别为用于请求搜索加油站的语音识别命令。因此,语音识别装置200可以基于语音识别的结果向用户10提供关于附近加油站的信息。如图10中所示,语音识别装置200可以预先下载预测语言模型,从而甚至在用户10以像用户10与语音识别装置200进行对话一样的自然方式发出的语音识别命令上执行语音识别。为了对用户如在自然对话中发出的语音识别命令执行语音识别,根据本实施例的语音识别装置200可以使用降低关于专有名词的误识别率的方法。语音识别装置200可以在语音识别中使用专有名词列表,专有名词列表包括专有名词的正确发音和相似发音的信息。语音识别装置200可以通过包括专有名词的不正确但相似的发音以及具有与专有名词的含义相似的词语来扩展专有名词列表。可选地,语音识别装置200可以在语音识别中使用专有名词列表,所述专有名词列表由服务器生成和扩展。语音识别装置200可以对扩展专有名词列表中包括的各种表达执行语音识别。因此,即使用户没有说出正确的名称,语音识别装置200也可以根据用户的话语意图执行语音识别。例如,当语音识别装置200被安排通过车辆移动到目的地A时,语音识别装置200可以预先下载包括扩展专有名词列表包括在到目的地A的路线上的地名的预测语言模型。因此,即使用户没有正确地说出地名,语音识别装置200也可以根据用户的话语意图执行语音识别。例如,当网络连接的状态变得不稳定,使得使用嵌入式语音识别模块时,根据现有技术的语音识别装置可能由于记忆容量的限制而仅对包括正确发音的精确专有名词的语音识别命令,诸如,“Seorakservicestation”或“BaegunvalleyofSeoraksanMountain”,执行语音识别。然而,根据本实施例的语音识别装置200可以预先下载并使用包括与到目的地的路线上的地名相关的各种表达的预测语言模型。因此,即使用户发出包括诸如不是正确的地名的“SeoraksanMountainservicestation”或“BaekrokdamvallyofSeoraksanMountain”的不正确表达的语音识别命令时,根据本实施例的语音识别装置200也可以识别与正确的地名相关的语音识别命令。因此,语音识别装置200可以基于语音识别的结果向用户提供关于“Seorakservicestation”或“BaegunvalleyofSeoraksanMountain”的信息。图11是用于描述根据本公开的实施例的由语音识别装置200执行的通过参考移动路线上的网络的状态来下载预测语言模型的方法的示图。现在将假设语音识别装置200的用户10通过伯尔尼和威尼斯从米兰到达罗马的示例来提供描述。参照图11,语音识别装置200可以基于关于到目的地的移动路线的信息来确定预测语言模型。语音识别装置200可以将语言模型确定为预测语言模型,该语言模型与用户10将要旅行的城市相关。语音识别装置200可以将语言模型确定为预测语言模型,该语言模型与诸如用户10将要旅行的城市的著名餐馆,地图,地名等的旅游信息相关。语音识别装置200可以确定预测语言模型的使用方法。语音识别装置200可以基于旅行日程确定预测语言模型的使用时段。语音识别装置200可以确定预测语言模型是否是存储在语音识别装置200中的嵌入式存储器中的语言模型。当预测语言模型没有存储在嵌入式存储器中时,语音识别装置200可以确定是否网络连接可用。基于网络连接的状态,语音识别装置200可以确定下载预测语言模型的时间。图11的表1101根据用户10的位置示出网络连接的状态和模型管理器410的状态。参照图11,位于米兰的语音识别装置200可以确定当前网络连接非常流畅但是在伯尔尼网络连接不可用,在威尼斯只有60%可用,并且在罗马不可用。因此,当语音识别装置200位于米兰和威尼斯时,语音识别装置200可以确定更新预测语言模型。参照图11,因为网络连接非常流畅,位于米兰的语音识别装置200可以通过使用服务器连接语音识别模块431来执行语音识别。语音识别装置200的模型管理器410可以激活服务器连接语音识别模块431用于语音识别。语音识别装置200可以确定当前网络连接非常流畅但是在伯尔尼或罗马网络连接不可用。语音识别装置200可以接收或预测指示在伯尔尼或罗马中网络连接不可用的信息。因此,语音识别装置200可以确定当前时间适合于更新预测语言模型。语音识别装置200可以将与伯尔尼相关的语言模型和与罗马相关的语言模型存储为预测语言模型。对此,语音识别装置200可以基于优先级顺序下载多个语言模型。语音识别装置200可以基于嵌入式存储器的容量下载多个语言模型。语音识别装置200可以先下载与伯尔尼相关的语言模型而不是与罗马相关的语言模型,因为首先是与伯尔尼相关的语言模型的使用时间。如图11中所示,语音识别装置200可以预先完全100%下载与伯尔尼相关的语言模型,并且可以部分50%下载与罗马相关的语言模型。参照图11,位于伯尔尼的语音识别装置200可以通过使用嵌入式语音识别模块433来执行语音识别,因为网络连接不可用。语音识别装置200的模型管理器410可以激活嵌入式语音识别模块433以进行语音识别。语音识别装置200可以基于预先下载的预测语言模型识别关于伯尔尼的旅游信息的用户语音识别命令。因此,即使网络连接不可用,语音识别装置200也可以以与使用服务器的语音识别器执行的语音识别类似的高准确度执行语音识别。接下来,参照图11,因为网络连接可用,位于威尼斯的语音识别装置200可以通过使用服务器连接语音识别模块431来执行语音识别。语音识别装置200的模型管理器410可以激活用于语音识别的服务器。语音识别装置200可以确定在罗马网络连接不可用,而当前网络连接的可能性是大约60%。因此,语音识别装置200可以确定当前时间适合于更新预测语言模型。语音识别装置200可以存储与罗马相关的语言模型作为预测语言模型。如图11所示,语音识别装置200可以另外下载与罗马相关的语言模型。由于网络连接不可用,位于罗马的语音识别装置200可以通过使用嵌入式语音识别模块433来执行语音识别。语音识别装置200的模型管理器410可以激活嵌入式语音识别模块433用于语音识别。语音识别装置200可以基于预先下载的预测语言模型识别关于罗马的旅游信息的用户语音识别命令。因此,即使网络连接不可用,语音识别装置200也可以以与使用服务器连接语音识别模块431执行的语音识别类似的高准确度执行语音识别。图12是用于描述根据实施例的由语音识别装置200执行的从外围电子设备下载或与外围电子设备共享语言模型的方法的示图。语音识别装置200可以下载存储在外围电子设备中的语言模型,或者可以与外围电子设备共享语言模型。语音识别装置200可以从服务器下载没有存储在外围电子设备中的语言模型。语音识别装置200与外围电子设备共享语言模型的特征可以意味着语音识别装置200通过像语言模型存储在语音识别装置200中一样使用存储在外围电子设备中的语言模型来执行语音识别。参照图12,语音识别装置200可以从外围电子设备下载或共享关于语音识别命令的语言模型,语音识别命令通常由外围电子设备使用。图12示出语音识别装置200是智能手机1201,导航1202,智能手表1203和虚拟现实相机1204中的至少一个,或者语音识别装置200的外围电子设备是智能手机1201,导航1202,智能手表1203和虚拟现实相机1204的至少另一个的示例。然而,本实施例不限于此。语音识别装置200可以是诸如家用电器的内部设备,诸如可穿戴设备的移动设备,或服务器中的至少一个。例如,如果语音识别装置200是智能手机1201,则智能手机1201可以从外围电子设备1202,1203和1204下载或与外围电子设备1202,1203和1204共享与外围电子设备1202,1203和1204共同使用的语音识别命令1211例如,诸如“打开电源”或“关闭电源”的电源控制语音识别命令,诸如“一,二,三”的基数,诸如“第一,第二,第三”的序数,诸如“激活蓝牙”或“连接蓝牙”的通信控制语音识别命令,诸如“模式1”或“模式2”的模式选择语音识别命令,诸如“一分钟内关闭电源”等的预约语音识别命令等相关的语言模型。因此,智能手机1201可以不冗余地存储与外围电子设备1202,1203和1204共同使用的语音识别命令1211相关的语言模型,但当智能手机1201执行语音识别时,可以从外围电子设备1202,1203和1204下载或与外围电子设备1202,1203和1204共享语言模型。另外,如果语音识别装置200是智能手机1201,则智能手机1201可以从导航1202下载或与导航1202共享与语音识别命令1213例如,诸如“音量1”,“音量2”,“调高音量”或“调低音量”的音量控制语音识别命令,诸如“再现第一无线电频道”等的无线电频道选择语音识别命令相关的语言模型,语音识别命令1213通常由智能手机1201和导航1202使用。另外,如果语音识别装置200是智能手机1201,则语音识别装置200可以从服务器下载与电话号码和消息翻译相关并且没有存储在外围电子设备1202,1203和1204中的语言模型1217。作为另一示例,如果语音识别装置200是导航1202,则语音识别装置200可以从服务器下载与地名,加油站信息,道路交通状况等相关并且没有存储在外围电子设备1201,1203和1204中的语言模型1218。作为另一示例,如果语音识别装置200是智能手表1203,则智能手表1203可以从外围电子设备1201,1202和1204下载或与外围电子设备1201,1202和1204共享与外围电子设备1201,1202和1204共同使用的语音识别命令1211相关例如,诸如“打开电源”或“关闭电源”的电源控制语音识别命令,诸如“一,二,三”的基数,诸如“第一,第二,第三”的序数,诸如“激活蓝牙”或“连接蓝牙”的通信控制语音识别命令,诸如“模式1”或“模式2”的模式选择语音识别命令,诸如“一分钟内关闭电源”等的预约语音识别命令等的语言模型。另外,如果语音识别装置200是智能手表1203,则智能手表1203可以从虚拟现实相机1204下载或与虚拟现实相机1204共享与语音识别命令1215相关的语言模型例如,诸如“改变为睡眠模式”,“黑匣子模式打开”的语音识别命令,智能手表1203和虚拟现实相机1204共同使用语音识别命令1215。另外,如果语音识别装置200是智能手表1203,则语音识别装置200可以从服务器下载与健康诸如心率,血压,运动量等相关并且没有存储在外围电子设备1201、1202和1204中的语言模型1219。作为另一示例,如果语音识别装置200是虚拟现实相机1204,则语音识别装置200可以从服务器下载与相机控制诸如曝光,快门,白平衡等相关并且没有存储在外围电子设备1201、1202和1203中的语言模型1220。诸如智能手表1203或虚拟现实相机1204的语音识别装置200可以通过连接到智能手机1201来操作。诸如智能手表1203或者虚拟现实相机1204的语音识别装置200可以连接到智能手机1201,从而接收和使用存储在智能手机1201中的用户专用语言模型。智能手表1203和虚拟现实相机1204可能具有其存储容量的限制。因此,诸如智能手表1203或虚拟现实相机1204的语音识别装置200可以连接到智能手机1201,从而与智能手机1201共享存储在智能手机1201中的语言模型。本公开的实施例可以被编写为计算机程序,并且可以在使用非暂时性计算机可读记录介质执行程序的通用数字计算机中实现。另外,本公开的实施例中使用的数据结构可以通过各种手段写入非暂时性计算机可读记录介质中。一个或多个实施例可以体现为包括计算机可读命令的记录介质上的计算机可读代码指令,例如,将在计算机中执行的程序模块。例如,实现为软件模块或算法的方法可以存储为在非暂时性计算机可读记录介质上可执行的计算机可读代码或程序指令。非暂时性计算机可读介质可以包括可以由计算机,易失性介质和非易失性介质以及可拆卸介质和不可拆卸介质访问的任何记录介质。非暂时性计算机可读介质的示例包括但不限于磁存储介质例如,只读存储器ROM,软盘,硬盘等,光学记录介质例如,CD-ROM,或数字通用盘DVD等。此外,非暂时性计算机可读介质可以包括计算机存储介质和通信介质。非暂时性计算机可读记录介质可以分布在网络耦合的计算机系统上,并且存储在分布式记录介质中的数据例如,程序命令和代码可以通过使用至少一个计算机来执行。在此示出和描述的特定实现方式是本公开的说明性示例,并且不旨在以任何方式限制本公开的范围。为简洁起见,可能未描述根据相关技术的电子配置,控制系统,软件和系统的其他功能方面。在整个说明书中,诸如“单元”和“模块”的术语表示用于处理至少一个功能或操作的单元,其中,单元和模块可以体现为硬件或软件或通过组合硬件和软件来体现。单元和模块可以形成为可寻址存储介质,或者可以由处理器可执行的程序实现。例如,作为示例,“单元”或“模块”可以包括诸如软件组件,面向对象的软件组件,类组件和任务组件,过程,功能,属性,过程,子例程,程序代码段,驱动程序,固件,微代码,电路,数据,数据库,数据结构,表,数组和变量的组件。虽然已经参照本公开的各种实施例示出和描述了本公开,但是本领域技术人员将理解,在不脱离通过所附权利要求及其等同物定义的本公开的精神和范围的情况下,可以在其中进行形式和细节上的各种改变。

权利要求:1.一种语音识别方法,由语音识别装置执行,所述语音识别方法包括:基于用户信息确定语音识别模型;下载语音识别模型;基于语音识别模型执行语音识别;以及输出执行语音识别的结果。2.根据权利要求1所述的语音识别方法,其中,语音识别模型包括预处理模型,声学模型或语言模型中的至少一个。3.根据权利要求1所述的语音识别方法,还包括:获取用户信息,其中,用户信息包括关于语音识别装置的用户的特征的信息、关于用户所处环境的信息、关于用户所在车辆的信息、关于用户目的地的信息或用户输入的信息中的至少一个。4.根据权利要求1所述的语音识别方法,其中,语音识别模型包括与预测的话语相关的预测语言模型,以及其中,确定语音识别模型包括:基于用户信息确定语言模型的域;基于用户信息中包括的关于用户特征的信息,确定域中包括的语言模型的范围;以及将至少一个语言模型确定为预测语言模型,所述至少一个语言模型包括在所述范围内。5.根据权利要求1所述的语音识别方法,其中,语音识别模型包括与预测的话语相关的预测语言模型,其中,确定语音识别模型包括:基于关于用户移动到目的地所采取的路线的信息,确定包括与路线中包括的第一点相关的语言模型的预测语言模型,以及其中,下载语音识别模型包括:当预测到语音识别装置在第一点用于通信的网络状态不充足时,在到达第一点之前下载与第一点相关的语言模型。6.根据权利要求1所述的语音识别方法,进一步包括确定语音识别模型的使用方法,其中,执行语音识别包括基于使用方法,通过使用语音识别模型来执行语音识别,其中,语音识别模型的使用方法包括语音识别模型的使用时段、使用语音识别模型之后处理语音识别模型的方法、或语音识别模型的可靠性中的至少一个。7.根据权利要求6所述的语音识别方法,其中,基于使用方法执行语音识别包括:在使用方法中所包括的语音识别模型的使用时段期间,通过使用语音识别模型来执行语音识别,以及其中,语音识别方法还包括:在语音识别模型的使用时段期满之后,基于使用方法删除或停用语音识别模型。8.根据权利要求6所述的语音识别方法,其中,语音识别模型包括与预测的话语相关的预测语言模型,其中,确定语音识别模型包括:基于存储在语音识别装置中的关于用户的日程的信息,确定与用户将要位于的区域中使用的外语相关的预测语言模型,其中,确定语音识别模型的使用方法包括:基于用户的日程,确定在用户将位于所述区域中的时段期间激活预测语言模型,以及其中,输出执行语音识别的结果包括:基于预测语言模型输出在外语和用户使用的语言之间执行翻译的结果。9.一种语音识别装置,包括:接收器,被配置为接收语音识别装置的用户的语音;至少一个处理器配置为:基于用户信息确定语音识别模型,以及基于语音识别模型对用户的语音执行语音识别;通信器,被配置为下载语音识别模型;以及输出接口,被配置为输出执行语音识别的结果。10.根据权利要求9所述的语音识别装置,其中,至少一个处理器还被配置为获取用户信息,以及其中,用户信息包括关于用户特征的信息、关于用户所处环境的信息、关于用户所在车辆的信息、关于用户目的地的信息或用户输入的信息中的至少一个。11.根据权利要求9所述的语音识别装置,其中,语音识别模型包括与预测的话语相关的预测语言模型,以及其中,当确定语音识别模型时,至少一个处理器还被配置为:根据用户信息确定语言模型的域,基于用户信息中包括的关于用户特征的信息,确定域中包括的语言模型的范围,以及确定至少一个语言模型是预测语言模型,所述至少一个语言模型包括在所述范围中。12.根据权利要求9所述的语音识别装置,其中,语音识别模型包括与预测的话语相关的预测语言模型,以及其中,当确定语音识别模型时,所述至少一个处理器还被配置为:基于关于用户移动到目的地所采取的路线的信息,确定包括与路线中包括的第一点相关的语言模型的预测语言模型,以及当预测到语音识别装置在第一点网络状态不充足时,控制通信器在到达第一点之前下载与第一点相关的语言模型。13.根据权利要求9所述的语音识别装置,其中,至少一个处理器还被配置为:确定语音识别模型的使用方法,以及基于使用方法,通过使用语音识别模型执行语音识别,从而对用户的语音执行语音识别,以及其中,语音识别模型的使用方法包括语音识别模型的使用时段、使用语音识别模型之后处理语音识别模型的方法、或语音识别模型的可靠性中的至少一个。14.根据权利要求13所述的语音识别装置,其中,当至少一个处理器基于使用方法通过使用语音识别模型执行语音识别时,至少一个处理器还被配置为:在使用方法中包括的语音识别模型的使用时段期间,通过使用语音识别模型来执行语音识别,并且在语音识别模型的使用时段期满之后,基于使用方法删除或停用语音识别模型。15.一种非暂时性计算机可读记录介质,其上记录有一个或多个程序,所述程序包括当由电子设备的处理器执行时使得电子设备:基于用户信息确定语音识别模型;下载语音识别模型;基于语音识别模型执行语音识别;以及输出执行语音识别的结果。

百度查询: 三星电子株式会社 语音识别方法和装置

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。