买专利,只认龙图腾
首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

【发明公布】一种支持多电器类型高精度的NILM实现方法_华中科技大学_201710989410.7 

申请/专利权人:华中科技大学

申请日:2017-10-23

公开(公告)日:2018-02-23

公开(公告)号:CN107730003A

主分类号:G06N3/08(2006.01)I

分类号:G06N3/08(2006.01)I;G06N3/04(2006.01)I;G06K9/62(2006.01)I

优先权:

专利状态码:失效-未缴年费专利权终止

法律状态:2022.10.11#未缴年费专利权终止;2018.03.20#实质审查的生效;2018.02.23#公开

摘要:本发明公开了一种支持多电器类型高精度的非入侵式负荷监控NILM的实现方法,能够用于NILM系统中对于多种负荷电器的识别,以扩展系统的兼容广度和提高精度的目的。本发明方法包括:数据的获取;系统根据选定的负荷电器来准备训练数据;系统使用基于深度神经网络的特定架构来完成对负荷电器类型的训练建模;系统通过训练好的架构对负荷电器的识别过程。本发明在训练数据的选择了较完整数据集,在对电器建模上会有较好的表现;考虑了大多数电器识别的兼容性,提升了对双状态电器的识别性能。本发明可推广到不需要高端硬件采集数据的系统中使用。

主权项:一种支持多电器类型高精度的NILM的实现方法,其特征在于,包括如下步骤:1从数据源获取用电特征;所述用电特征指电气量数据,包括功率值和电压值;所述数据源,包括公共数据集,指数据库软件生成的各种包含元器件信息的表格文件,或者是采集的电气量数据;2获取用电特征后,根据选择的电器类型,进行训练数据的准备工作,包括提取负载激活,创建聚合数据;所述电器类型,分为单状态和多状态型;所述电器类型选取用电特征需具有代表性,每个电器都至少存在于数据集UK‑DALE的三个房子中,用以实现对于每个用电设备,至少可以在两个房子上训练我们提出的优化网络架构,并在不同的房子上进行测试的电器作为该类电器的训练对象;训练对象包括单状态和多状态或者多状态;所述负载激活是指单个电器设备在该设备工作时间内获得的功率;所述创建聚合数据,是根据提取到的负载激活,创建一个合成数据序列;对于选定数据源包括的电器类型,随机选择任一设备激活,且该设备激活包含在序列中;所述目标设备是我们选择用来作为训练识别目标的,该聚合数据中的任何一个用电设备类型都可以作为目标设备进行训练3使用基于深度神经网络的方法,采用步骤1确定的数据源,和步骤2创建的聚合数据,对所选电器进行负荷电器用电特征的建模训练,实现对该深度神经网络的优化;4利用步骤3优化后的深度神经网络,对总负荷输入进行负荷电器的识别操作,生成负载神经网络模型,用于对输入的总负荷功耗数据进行负荷识别分解。

全文数据:一种支持多电器类型高精度的NILM实现方法技术领域[0001]本发明属于信息与通信技术领域,尤其涉及一种有效的NILM的实现方法。背景技术[0002]面对日益严重的能源紧缺的问题以及用电量逐年增长的现状,对用电的节能改造以及发展智能电网技术一直是研究热点,因而采用非侵入式负荷监控(Non-intrusiveLoadMonitoring,NILM技术,对广大客户的用电情况实现监控、管理的概念模型被提出来。[0003]NILM系统能够检测需要维护的设备并且向消费者提供设备特定的反馈,以方便用户合理安排相关用电设备的运行状态。然而现今NILM方法在识别性能上和对电器类型的覆盖率还有待完善,没有一种方法在保证识别性能的基础上还能兼容所有电器类型,同时能允许低端硬件的低采样。而深度神经网络技术的快速发展,推动了研究工作者尝试将深度神经网络技术应用到NILM中,而且相较于传统方法如组合优化⑶和阶乘隐马尔科夫模型FHMM等,基于深度神经网络的NILM方法在一些性能指标上取得了更好结果,即能在精度和电器类库兼容性上达到更高性能的平衡,而且并不要求高采样率。发明内容[0004]本发明提供了一种支持多电器类型高精度的NILM实现方法,该方法具有较优的识别性能和支持较多电器类型的识别,而且不需要高端硬件的数据采集,克服现有技术存在的无法兼容高精度和广兼容电器类型库的问题。[0005]—种支持多电器类型高精度的NILM的实现方法,其特征在于,包括如下步骤:[0006]1从数据源获取用电特征;[0007]所述用电特征指电气量数据,包括功率值和电压值;[0008]所述数据源,包括公共数据集,指数据库软件生成的各种包含元器件信息的表格文件,或者是采集的电气量数据;从数据源中获取的用电特征包括单状态和多状态的电器类型的用电特征;[0009]2获取用电特征后,根据选择的电器类型,进行训练数据的准备工作,包括提取负载激活,创建聚合数据;[0010]所述电器类型,分为单状态,如水壶、烤面包机和多状态型,如洗衣机、空调;所述电器类型选取用电特征需具有代表性,每个电器都至少存在于数据集UK-DALE;所述UK-DALE是公共数据集的一种,是持续更新的公用数据集,记录了5个房子的电力需求的三个房子中,用以实现对于每个用电设备,至少可以在两个房子上训练我们提出的优化网络架构,并在不同的房子上进行测试的电器,如空调,洗衣机等,作为该类电器的训练对象;训练对象包括单状态即简单的开关运行模式多状态即根据使用功能要求有不同的运行模式;[0011]所述负载激活是指单个电器设备在该设备工作时间内获得的功率;[0012]所述创建聚合数据,是根据提取到的负载激活,创建一个合成数据序列;通过随机组合实际负载激活,有效地产生无限数量的合成聚合数据;按照合成聚合数据与真实聚合数据以1:1的比例进行合成,然后将合成数据和真实数据混合用来训练,除了增大训练数据量,还可以提高神经网络识别电器的性能以及推广到不可见房子的能力,不可见房子即不知道房子中有何设备,但是可以获取该房子的电气量数据,包括电压、电流、功率等。[0013]对于选定数据源包括的电器类型,随机选择任一设备激活可利用刚刚提取的设备激活,它是对应单个电器设备的),且该设备激活包含在序列中;所述目标设备是我们选择用来作为训练识别目标的,该聚合数据中的任何一个用电设备类型都可以作为目标设备进行训练;本发明中设备激活本身的含义就是功率值;[0014]3使用基于深度神经网络的方法,采用步骤⑴确定的数据源,和步骤2创建的聚合数据,对所选电器进行负荷电器用电特征,即步骤(1中的电压值和功率值的建模训练,实现对该深度神经网络的优化;[0015]4利用步骤⑶优化后的深度神经网络,对总负荷输入,即步骤2中的需要进行识别分解的聚合数据序列进行负荷电器的识别操作生成负载神经网络模型,用于对输入的总负荷功耗数据进行负荷识别分解,获取用电电器的功率或者功率-时间信息,得到具体电器详细的用电情况;在整个识别分解过程中,深度神经网络对于每个时间步长产生多个估计值,因为可能存在重叠的输入,实验通过取平均值来组合每个时间步长的多个值作为功率估计值的结果;[0016]进一步的,所述步骤⑵中根据负荷电器准备训练数据的过程,具体包括:[0017]按照提取电器负载激活,即负载有效运行状态过程的电气值,可以是功率值,选择训练数据的时间窗口(窗口宽度选择以能保证负载的识别性能和捕获大多数设备激活为准贝IJ和创建聚合数据随机组合实际负载激活,产生合成聚合数据),进行训练数据的准备工作。[0018]更进一步的,所述时间窗口是需要进行训练的网络架构的输入数据窗口宽度,根据具体的电器设备而变化;宽度根据目标负载的功率需求确定,增加窗口过大会损害“短时间”负载的识别性能,而窗口宽度足够长才足以捕获大多数设备激活;[0019]进一步的,所述步骤(3使用基于深度神经网络方法,即由降噪自动编码器dAE和循环神经网络RNN串接而成,进行负荷电器的建模训练;所述训练过程是监督性的,即需要使用已知电器类型的单个电器用电数据包括功率值或电压值进行训练,具体包括:[0020]所述深度神经网络由前后串接的降噪自动编码器dAE和循环神经网络RNN组成,降噪自动编码器dAE是从有噪声的功耗输入重建清洁目标的自动编码器在自动编码的基础上,训练数据加入噪声,来训练整个网络);这可免去人工提取数据特征的巨大工作量,提高了特征提取的效率;使用其滤波去噪特性进行首次的建模过程,以产生一个较优的模型表示;[0021]循环神经网络RNN是一个自反馈网络,使用长短时记忆神经网络LSTM实现;所述LSTM是实现RNN的一种方法,很适合处理顺序数据,通过其擅长学习长周期步长的事件特征的特点进行第二次的模型建立;[0022]数据训练使用反向传播算法,这是神经网络训练常用的算法,具体为:[0023]对于一组样本,x1,y1,l$i彡N,N为训练样本数量,神经网络通过下面公式进行信息传播:[0024]am=f“zmI[0025]z«=ff«.am-l+bm^[0026]其中am表示第m层神经元的活性值,S卩神经元所获得的输入信号的积累效果,zm表示第m层神经元的状态,bw表示第m-1层到第m层的偏差;通过公式(1和(2计算神经网络每一层的状态和激活值即输入和输出),直至最后一层;[0027]所述循环神经网络RNN包括输入层、隐藏层和输出层组成,第一层为输入层,最后一层为输出层,其它中间层即为隐藏层;信息从输入层通过中间的隐藏层流向输出,其输出由网络的连接方式、权重值和激励函数决定;[0028]神经网络的输出为fx|w,b,此处代指权重,下面带了上标i,就是在第i层的权重矩阵,目标函数为:[0030]式中,W和b表示每一层的权重矩阵和偏差向量,该矩阵由神经网络结构参数确定的,λ为重量衰减参数;当λ在量级上大于1则爆炸,若小于1则会消失;当输入功率参数序列比较长时,其中的梯度信息即误差变化随着时间的传播而消失或爆炸;消失是递减;爆炸是递增,[0032]目标是最小化JW,b;X,y,J是损失就是变化或者误差,x,y表不输入向量,米用梯度下降方法,更新参数如下:[0035]式中α是参数更新率;一般取经验值{〇.001,〇.〇1,〇.5,1.0},误差项%目标函数关于第m层的神经元ζw的偏导数,表示第m层的神经元对最终误差的影响,[0038]误差项为[0039]Sw=PmZmΘWm+1Mm+110[0040]其中T是最大迭代次数;在保证需要的精度与效率的情况下确定最大迭代次数,一般预先设定;θ是向量点积运算符,表示每个元素对应相乘;F表示范数;PmZm是fmZm关于Z1的偏导;[0041]使用公式(10反向计算,具体是通过误差函数对各神经元参数的偏导数来计算当前批次数据的误差表面梯度,然后将梯度乘以学习率参数来更新连接权重,每一层的误差Sw,然后使用公式⑻和⑼计算每一层参数的导数,最后就根据公式⑹和⑺进行神经网络参数的更新,经过一定次数的迭代参数更新完成神经网络的训练过程,即完成对特定电器的建模操作。[0042]更进一步的,在进行神经网络的训练建模之前,需要对神经网络架构进行初始化配置操作,具体包括:[0043]依据反向传播算法的准则,初始化网络参数,包括各神经网络内部网络拓扑连接权值、误差函数形式、计算精度要求以及最大学习次数;[0044]根据网络结构的复杂度和时间合理性对网络训练过程的迭代次数的进行设置;网络结构复杂度高,则需要足够多的迭代次数进行训练来学习有用信息,但同时如果迭代次数过大,则训练时间就会过长,选择的依据是平衡性能和效率;[0045]进一步的,所述步骤4使用优化后的神经网络架构对总负荷输入进行负荷电器的识别,具体包括:[0046]选取网络输入窗口,界定输入数据跨度即每次输入数据的长度,以分割输入序列;[0047]在网络输入窗口中,进行电器设备负载激活的匹配尝试,当匹配成功则估算功率值作为输出,如果匹配失败则输出为空null;[0048]本发明还提出一种支持多电器类型高精度的NILM实现方法,主要包括数据训练和负荷识别,其中:[0049]所述的数据训练,用于产生电器模型,训练好的参数即为神经网络中的各层连接的权重和偏差;[0050]负荷识别,用于产生目标电器的功率估值,使用训练好的神经网络对总负荷输入进行负载电器的识别。[0051]在本发明的一个实施例中,所述步骤⑴从数据源获取数据包括:[0052]在进行数据预处理之前,需要选定数据源,其中既包括总负荷数据又包含各个电器子表的可用数据。[0053]对选定的数据源,对数据进行一系列的初始化处理,包括进行下采样保证数据的一致性和对数据的特殊值进行填充或替换处理。[0054]在本发明的一个实施例中,所述步骤2根据选定的电器进行训练数据准备的过程,具体包括:[0055]电器的选择;[0056]使用提取激活、选择训练数据的时间窗口和合成聚合数据来进行训练数据的准备工作。[0057]在本发明的一个实施例中,所述步骤2使用提取激活的方法进行训练数据准备的第一步,具体包括:负载激活是单个电器设备在该设备的一个完整周期内获得的功率,即功率特征。系统根据这个功率特征进行特定电器负载的激活提取。[0058]在本发明的一个实施例中,所述步骤2通过选择训练数据的时间窗口和合成聚合数据来完成训练数据的准备工作。时间窗口是需要进行训练的网络架构的输入数据窗口宽度,根据具体的电器设备而变化。合成聚合数据增加训练数据量和提高系统泛化能力,使用前面提取的激活进行数据合成。泛化能力指机器学习算法对新鲜样本的适应能力。[0059]在本发明的一个实施例中,所述步骤3使用基于深度神经网络的优化架构进行负荷电器的监督建模训练,具体包括:[0060]本发明中,所述数据源包括公共数据集数据,公共数据集规模大,数据量多,使用便捷,实际电网数据难以获取。难以获取体现在:需要额外的硬件进行采集数据工作,而且硬件采集的精度、方式等又会影响数据的有效性以及之后的分解性能,也没有一个公共的硬件标准供使用,因而对之后的分解方法的比较也是不公平的;再者本专利的重点在于对负荷的分解方法,消除数据源的影响使得算法更有可比性。因此,采用数据库软件是一种简单易行的办法。[0061]本发明所述负载激活是一个电器有效运行状态的动态过程,里面包含该电器类型的运行特征,而平均功率没有时间段的概念,可能是整个电器开启的过程,包含了太多无用信息,也可能什么有价值的运行特征都没有,而且负载激活不一定使用功率值来度量。[0062]本发明中,所述聚合数据跟数据源的概念差不多,但是并不是从公共数据集中获取的,而是人工合成的,目的是为了模拟多种电器运行组合,提高和测试识别分解推广能力。[0063]本发明中,所述目标设备是我们选择用来作为训练识别目标的,该聚合数据中的任何一个用电设备类型都可以作为目标设备进行训练,假如我当前随机选择了水壶洗衣机冰箱的激活进行聚合,那么这三者都可以单独作为目标设备,进行各自的数据训练。本发明中,输入是需要进行识别分解的任意长的聚合数据序列,一旦电器激活匹配成功就估计其功率值作为输出,否则就不产生输出(空值)。[0064]与现有技术相比,本发明具有如下有益效果:[0065]1本发明在训练数据的选择上使用了数据集较完整且较新的公共数据集UK-DALE,并且还基于此合成了大量的训练数据,所以本发明的NILM实现方法在对电器建模上会有较好的表现。[0066]2本发明使用的公共数据集UK-DALE中的数据是采样为6s的用电数据,因而可以将本发明的NILM实现方法推广到不需要高端硬件采集数据的系统中使用。[0067]3本发明使用基于深度神经网络的优化架构进行NILM的实现中,使用dAE和RNN两层结构进行负载建模训练和最终的电器识别,该架构考虑了大多数电器识别的兼容性,并且出色地提升了对双状态电器的识别性能。附图说明[0068]图1为本发明NILM实现方法结构图;[0069]图2为本发明dAE结构图;[0070]图3为本发明RNN结构图;[0071]图4为本发明提取激活流程图;[0072]图5为本发明神经网络训练流程图;[0073]图6为本发明负荷识别流程图;[0074]图7为本发明NILM实现方法流程图。具体实施方式[0075]为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。[0076]本发明中NILM实现方法的结构如图1所示,流程图如图7所示,从NILM的功能步骤来看可分为:[0077]1从数据源获取数据;[0078]⑵获取到数据后,系统根据选定的电器进行训练数据的准备;[0079]3系统使用基于深度神经网络的优化架构进行负荷电器的建模训练;[0080]⑷优化架构训练完成后对总负荷输入进行负荷电器的识别操作。[0081]本发明中准备训练数据的提取激活的算法设计如图4所示,实施例使用Pandas、Numpy数据类库、NILMTK工具库和H5py库进行数据处理NILMTK是一种用于非侵入式负载监控的开源工具包,H5py库是一种Python开源库),使用Lasagne和或Theano深度学习库完成深度神经网络的实现;数据库存放电气量数据,工具库使用内置工具处理电气量数据;软件平台为:Ubuntu操作系统,Python代码环境。[0082]具体包括:[0083]1导入数据集至NILMTK;[0084]2设置数据的时间窗口;[0085]3选择要加载数据的House和电器类型;UK-DALE数据集记录了5个房子House的电力需求[0086]⑷使用NILMTK工具库的get_activations方法加载House里所需电器的激活。[0087]本发明中,房子即是House,是UK-DALE数据集中存放电气量数据的单元。[0088]其中需要传递给每个负载的提取激活方法get_activations的参数如表1所示。[0089]表1[0091]本发明中优化框架的神经网络架构部分由降噪自动编码器dAE和循环神经网络RNNRNN网络本身组成部分,包含了两个复杂的双向LSTM结构)串接而成,分别如图2和如图3所示。[0092]图2对dAE神经网络结构进行NILM实验,图3对比实验是进行RNN网络的NILM实验,上述两个实验确定了dAE网络和RNN网络的训练迭代次数。图中ID卷积指的是一维卷积。[0093]利用前者的优异的滤波和去噪效果作为预处理网络来率先产生一个较优的模型表示,然后将处理后的结果传入循环神经网络RNN,通过RNN擅长的事件记忆来提升对双状态或多状态事件的处理而产生一个比先前级别更准确的输入模式的表示。具体包括:[0094]dAE是试图从有噪声输入重建清洁目标的自动编码器。在NILM中无需添加噪声,使用总功率需求作为网络的噪声输入,并要求网络重建目标负载即目标电器的清洁功率即去噪后的功率需求。[0095]循环神经网络RNN允许网络拓扑出现环状结构的循环,使得在时间步骤t时层m中的神经元i的输出经由加权连接在时间步骤t+1被馈送到层m包括神经元i中的每个神经元。这使得RNN将输入的整个历史映射到输出向量,因而RNN尤其适合顺序数据。实际应用中,RNN存在“消失的梯度”问题。本发明使用的RNN的一种实现LSTM能有效克服这个问题。[0096]循环神经网络使用时间反向传播算法进行参数训练,训练时梯度是随时间进行反向传播的,当输入功率参数序列比较长时,其中的梯度信息(即误差变化随着时间的传播而消失或爆炸消失:是递减;爆炸:是递增)。假设时刻t时,输入为xt,神经网络中隐层状态为htzfOJht^+Wxt+b,与当前时刻输入和上一时刻状态有关,f为非线性函数,通常为logistic函数或tanh函数根据经验或使用常用的经典函数,因为有多层学习,可以迭代修正参数)。假设循环神经网络在每个时刻t都有一个监督信息,损失为Jt,则整个序列的损失为[0097]损失J关于U隐藏层上一时刻到当前时刻的权值的梯度为:[0099]其中ht是关于U和hnt-1时刻输入为Xt1时的隐层状态)的函数,而1!^又是关于U和ht-2的函数。因此,利用链式法则可得[0101]其中,[0103]因此,[0105]定义γ=IluMiagHfhi—I]II,则上面公式括号内为γk。如果γ1时,γbk—oo,会造成系统不稳定,也就是梯度爆炸问题;相反,如果γ1,当时,γΜ—〇,会出现梯度消失的问题。在训练循环神经网络时,更经常出现的是梯度消失问题,这是因为一般情况下使用的非线性激活函数为logistic函数或tanh函数,其导数值都小于1。因此,虽然普通的循环神经网络从理论上可以建立长时间间隔的状态之间的依赖关系,但是由于梯度爆炸或消失问题,这将会限制RNN的存储器,使得其只能学习到短周期的依赖关系。该问题的解决方案是使用带有门控输入,门控输出和门控反馈环路“存储器单元”的“长短时记忆神经网络”(LSTM结构。LSTM也属于循环网络,它相当于一个别样的锁存器其中“锁存器”是数字计算机RAM的基本单元)ISTM已经成功应用于各种各样的序列任务,包括自动语音识别和机器翻译。RNN本身结构适合于处理顺序数据,尤其它的自反馈使得它原则上具有任意长的记忆,尤其善于处理各状态事件间长时间的时间步长。在NILM任务中,使用RNN网络擅长的事件记忆来提升对双状态或多状态事件的处理,进而提高对双或多状态电器的建模能力。[0106]本发明中神经网络的数据训练建模流程如图5所示,训练的具体实施步骤包括:[0107]1初始化网络权值和神经元的阈值;[0108]2前向传播:一层一层地计算隐层神经元和输出层神经元的输入和输出;[0109]3后向传播:一层一层地修正权值和阈值,直到满足终止条件。[0110]其中数据训练使用反向传播算法实现,具体为:[0111]对于一组样本,1,71,1^^^^,最大迭代次数1',神经网络通过下面公式进行信息传播:[0112]am=fmzm1[0113]z«=ff«.a»-i+b«2[0114]通过公式⑴和(2计算神经网络每一层的状态和激活值,直至最后一层。神经网络的输出为fx|w,b,目标函数为:[0116]式中,W和b包含了每一层的权重矩阵和偏差向量,[0118]目标是最小化了胃,13^,7,采用梯度下降方法,更新参数:[0121]式中α是参数更新率,误差项为目标函数关于第m层的神经元zw的偏导数,表示第m层的神经元对最终误差的影响,[0124]误差项为:[0125]Sw=PmZmΘWm+1Mm+110[0126]使用公式(10反向计算每一层的误差δ«,然后使用公式⑻和⑼计算每一层参数的导数,最后就根据公式6和7进行神经网络参数的更新,经过一定次数的迭代参数更新完成神经网络的训练过程即完成对特定电器的建模操作。[0127]具体的迭代次数的设置如表2所示。[0128]表2[0130]本发明中使用训练好的神经网络架构进行负荷识别流程如图6所示,识别的具体实施步骤包括:[0131]1选取网络输入窗口以分割输入序列;[0132]2在输入窗口中选取网络样本窗口(识别窗口)并且在输入窗口中进行移动以对设备激活进行多次匹配尝试;[0133]3匹配成功,则进行估值输出,否则输出为空,即结束该窗口的识别;[0134]4沿着输入序列滑动输入窗口进行下一个窗口序列的识别操作,直至输入序列处理完毕。[0135]通过以上的实施方式的描述,所属领域的技术人员可以清楚地了解到本发明可借助软件加非必需的通用硬件的方式来实现,当然也可以通过软件,如果对已经存储的数据进行负荷识别的话,但很多情况下前者的应用是更常见的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在可读取的存储介质中,如计算机的硬盘或光盘等,包括若干指令用以使得一台计算机设备可以是个人计算机,服务器,或者网络设备等执行本发明各个实施例所述的方法。[0136]以上所述仅是本申请的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视本申请的保护范围。

权利要求:1.一种支持多电器类型高精度的NILM的实现方法,其特征在于,包括如下步骤:1从数据源获取用电特征;所述用电特征指电气量数据,包括功率值和电压值;所述数据源,包括公共数据集,指数据库软件生成的各种包含元器件信息的表格文件,或者是采集的电气量数据;2获取用电特征后,根据选择的电器类型,进行训练数据的准备工作,包括提取负载激活,创建聚合数据;所述电器类型,分为单状态和多状态型;所述电器类型选取用电特征需具有代表性,每个电器都至少存在于数据集UK-DALE的三个房子中,用以实现对于每个用电设备,至少可以在两个房子上训练我们提出的优化网络架构,并在不同的房子上进行测试的电器作为该类电器的训练对象;训练对象包括单状态和多状态或者多状态;所述负载激活是指单个电器设备在该设备工作时间内获得的功率;所述创建聚合数据,是根据提取到的负载激活,创建一个合成数据序列;对于选定数据源包括的电器类型,随机选择任一设备激活,且该设备激活包含在序列中;所述目标设备是我们选择用来作为训练识别目标的,该聚合数据中的任何一个用电设备类型都可以作为目标设备进行训练3使用基于深度神经网络的方法,采用步骤(1确定的数据源,和步骤2创建的聚合数据,对所选电器进行负荷电器用电特征的建模训练,实现对该深度神经网络的优化;4利用步骤3优化后的深度神经网络,对总负荷输入进行负荷电器的识别操作,生成负载神经网络模型,用于对输入的总负荷功耗数据进行负荷识别分解。2.根据权利要求1所述的方法,其特征在于,所述步骤2中根据负荷电器准备训练数据的过程,具体包括:按照提取电器负载激活、选择训练数据的时间窗口和创建聚合数据,进行训练数据的准备工作。3.如权利要求1或2所述的方法,其特征在于,时间窗口是需要进行训练的网络架构的输入数据窗口宽度,根据具体的电器设备而变化。4.如权利要求1或2所述的方法,其特征在于,所述步骤3使用基于深度神经网络方法进行负荷电器的建模训练;所述训练过程是监督性的,即需要使用已知电器类型的单个电器用电数据进行训练,具体包括:所述深度神经网络由降噪自动编码器dAE和循环神经网络RNN组成,降噪自动编码器是从有噪声的功耗输入重建清洁目标的自动编码器,使用其滤波去噪特性进行首次的建模过程,以产生一个较优的模型表不;循环神经网络RNN是一个自反馈网络,使用长短时记忆神经网络LSTM实现;数据训练使用反向传播算法实现,具体为:对于一组样本,1,1,1^^^^^为训练样本数量,神经网络通过下面公式进行信息传播:a«=fmz«izm=ffm.am-l+bm⑵其中am表示第m层神经元的活性值,zm表示第m层神经元的状态,bm表示第m-1层到第m层的偏差;通过公式⑴和2计算神经网络每一层的状态和激活值即输入和输出),直至最后一层;所述循环神经网络RNN包括输入层、隐藏层和输出层组成,第一层为输入层,最后一层为输出层,其它中间层即为隐藏层;信息从输入层通过中间的隐藏层流向输出,其输出由网络的连接方式、权重值和激励函数决定;神经网络的输出为fx|w,b,目标函数为:式中,W和b表示每一层的权重矩阵该矩阵由神经网络结构参数确定的)和偏差向量,λ为重量衰减参数,目标是最小化JW,b;x,yJ是损失就是变化或者误差,x,y表不输入向量),米用梯度下降方法,更新参数如下:式中α是参数更新率,误差项为目标函数关于第m层的神经元zm的偏导数,表示第m层的神经元对最终误差的影响,误差项为δ«=f\zmοW1W110其中T是最大迭代次数,θ是向量点积运算符,表示每个元素对应相乘;F表示范数;f、Zm是匕Zm关于z1的偏导;使用公式(10反向计算,具体是通过误差函数对各神经元参数的偏导数来计算当前批次数据的误差表面梯度,然后将梯度乘以学习率参数来更新连接权重,每一层的误差Sw,然后使用公式⑻和⑼计算每一层参数的导数,最后就根据公式6和⑺进行神经网络参数的更新,经过一定次数的迭代参数更新完成神经网络的训练过程,即完成对特定电器的建模操作。5.根据权利要求1或2所述的方法,在进行神经网络的训练建模之前,需要对神经网络架构进行初始化配置操作,具体包括:依据反向传播算法的准则,初始化网络参数,包括各神经网络内部网络拓扑连接权值、误差函数形式、计算精度要求以及最大学习次数;根据网络结构的复杂度和时间合理性对网络训练过程的迭代次数的进行设置。6.根据权利要求1或2所述的方法,其特征在于,所述步骤4使用优化后的神经网络架构对总负荷输入进行负荷电器的识别,具体包括:选取网络输入窗口,界定输入数据跨度即每次输入数据的长度,以分割输入序列;在网络输入窗口中,进行电器设备负载激活的匹配尝试,当匹配成功则估算功率值作为输出,如果匹配失败则输出为空null。7.—种支持多电器类型高精度的NILM实现方法,其特征在于,包括数据训练和负荷识另IJ,其中:所述的数据训练,用于产生电器模型,训练好的参数即为神经网络中的各层连接的权重和偏差;负荷识别,用于产生目标电器的功率估值,使用训练好的神经网络对总负荷输入进行负载电器的识别。

百度查询: 华中科技大学 一种支持多电器类型高精度的NILM实现方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。