广东工业大学学报  2022, Vol. 39Issue (5): 21-28.  DOI: 10.12052/gdutxb.220029.
0

引用本文 

袁君, 章云, 张桂东, 李忠, 陈哲, 于晟龙. 基于自适应动态规划的能量管理系统研究综述[J]. 广东工业大学学报, 2022, 39(5): 21-28. DOI: 10.12052/gdutxb.220029.
Yuan Jun, Zhang Yun, Zhang Gui-dong, Li Zhong, Chen Zhe, Yu Sheng-long. A Survey of Energy Management System Based on Adaptive Dynamic Programming[J]. JOURNAL OF GUANGDONG UNIVERSITY OF TECHNOLOGY, 2022, 39(5): 21-28. DOI: 10.12052/gdutxb.220029.

基金项目:

国家自然科学基金资助项目(62003091)

作者简介:

袁君(1992–),女,博士研究生,主要研究方向为优化控制、能量管理系统。

通信作者

章云(1963–),男,教授,博士,博士生导师,主要研究方向为复杂系统建模与控制、图像处理与模式识别等,E-mail:yun@gdut.edu.cn

文章历史

收稿日期:2022-02-21
基于自适应动态规划的能量管理系统研究综述
袁君1, 章云1, 张桂东1, 李忠2, 陈哲3, 于晟龙4    
1. 广东工业大学 自动化学院,广东 广州 510006;
2. 哈根大学 数学与计算机学院,哈根 58097;
3. 奥尔堡大学 能源与技术学院,奥尔堡 9220;
4. 迪肯大学 工程学院,墨尔本 3216
摘要: 自适应动态规划 (Adaptive Dynamic Programming, ADP) 作为最优控制领域的研究热点,其在能量管理系统 (Energy Management System, EMS)领域中有着广泛的应用。ADP算法是通过系统输入输出数据自适应调整控制策略实现优化控制, 尤其在解决复杂非线性系统最优控制问题方面具有强大优势。本文介绍了ADP算法的研究进展及其在EMS领域的应用,分析了该算法在离散EMS和连续EMS的研究现状和算法实现方式,并介绍了实时自适应动态规划 (Real-time Adaptive Dynamic Programming, RT-ADP)算法及其应用的可行性。
关键词: 自适应动态规划    能量管理系统    实时控制    
A Survey of Energy Management System Based on Adaptive Dynamic Programming
Yuan Jun1, Zhang Yun1, Zhang Gui-dong1, Li Zhong2, Chen Zhe3, Yu Sheng-long4    
1. School of Automation, Guangdong University of Technology, Guangzhou 510006, China;
2. School of Mathematics and Computer Science, FernUniversität in Hagen, Hagen 58097, Germany;
3. Department of Energy Technology, Aalborg University, Aalborg 9220, Denmark;
4. School of Engineering, Deakin University, Melbourne 3216, Australia
Abstract: Adaptive Dynamic Programming (ADP) algorithm, as a research focus in the field of optimal control, has been widely applied in the field of Energy Management System (EMS). ADP is an effective tool for solving optimal control problems in complex nonlinear systems, which can adaptively adjust the control strategy through the input and output data of the system. The research progress of ADP algorithm and its application in EMS are introduced. Then the research status and algorithm implementation of ADP algorithm in discrete EMS and continuous EMS are analyzed. And at last the Real-time Adaptive Dynamic Programming (RT-ADP) algorithm and its feasibility are introduced.
Key words: adaptive dynamic programming    energy management system    real-time control    

随着应对气候变化成为全球共识,我国提出实现2030年碳达峰、2060年碳中和的目标。中共中央、国务院先后出台了《2030年前碳达峰行动方案》、《关于完整准确全面贯彻新发展理念做好碳达峰碳中和工作的意见》等一系列政策、文件,为推动能源低碳转型指明了方向[1]。能源管理系统是实现碳达峰、碳中和的重要技术支撑[2]

新能源发电占比增加、负荷用电多样化等因素,使能量管理系统(Energy Management System, EMS)成为复杂非线性随机系统。如何保证电网在安全、经济的方式下运行已成为EMS优化控制问题的研究热点与难点[3]

自适应动态规划(Adaptive Dynamic Programming,ADP) 由Werbos教授[4]提出,其本质上是利用增强式学习原理,通过函数近似结构,逼近动态规划方程中的性能指标函数和控制策略。性能指标函数直接参与算法迭代,而迭代性能指标函数一般具有Lyapunov 函数性质。这使得EMS的稳定性等重要性质可以由迭代的性能指标函数直接判断。因此ADP可以有效解决动态系统优化问题,在求解非线性最优控制方面的强大优势,ADP自提出以来成为最优控制领域研究热点,并在EMS领域得到广泛应用[5-6]。Boaro等[7]将ADP应用于家庭EMS,通过控制储能设备解决实时电价情况下的电能流动问题,实现了用户的整体经济最优目标。Wei等[8] 在系统模型未知的情况下,提出执行依赖启发式动态规划方法,将其应用于EMS中的电能调度问题中,并采用神经网络来构造执行和评价网络,而且利用反向传递期望值和实际值之间的差值调整网络结构的参数。Wang等[9]将基于数据的迭代ADP算法应用于智能住宅内部的能源优化中,通过系统输入输出数据自适应调整控制策略,实现了用户与电网的共赢。可以看出,ADP算法在能量管理系统优化控制方面有着广泛的发展前景与极大的自身优势[10]

1 ADP研究现状 1.1 ADP算法结构

ADP算法包括:执行网络 (Action Network, AN)、模型网络(Model Network, MN)和评判网络 (Critic Network, CN)3个模块[11]。AN用来近似最优控制策略,CN用来近似最优性能指标函数。评判函数的参数更新是基于Bellman 最优原理进行的。这样不仅可以减少前向计算时间,而且可以在线响应未知系统的动态变化,对网络结构中的权值参数进行自动调整。

ADP算法基本结构分别是启发式动态规划(Heuristic Dynamic Programming, HDP) 和二次启发式规划(Dual Heuristic Programming, DHP),其结构如图1图2所示[12]。HDP结构中执行网络用来映射状态变量和控制量之间的关系;模型网络用来估计下一时刻的系统状态;评判网络的输出用来近似性能指标函数[13]。DHP结构中执行网络和模型网络目的相同,而评判网络用来近似性能指标函数的梯度[14]。基于HDP和DHP结构,众多学者提出其衍生结构,如Liu等[15]提出全局二次启发式规划(Globalized DHP, GDHP)结构,它将控制策略添加到评判网络的输入中并逼近性能指标函数及其梯度,GDHP是一种计算量大但逼近精度高的结构。He等[16]提出目标导向型自适应动态规划(Goal Representation Adaptive Dynamic Programming, GrADP)结构,其评判网络在包含系统动态和系统控制输入信息的基础上考虑了奖励/惩罚信号的自适应调节,从而提高近似精度。Xu等[17]将稀疏核机器学习与ADP结构相结合,提出基于核的ADP(kernel-ADP)结构,使ADP算法同时具有泛化能力和逼近能力,并应用于倒立摆实验中,结果表明kernel-ADP在经验和理论方面都比传统ADP具有更好的性能。目前ADP结构已成功应用于导弹制导律[18]、自动驾驶[19]、机器人平衡控制[20]、工业复杂过程控制[21]等问题中。

图 1 启发式动态规划结构图 Figure 1 Structure diagram of heuristic dynamic programming
图 2 二次启发式规划结构图 Figure 2 Structure diagram of dual heuristic programming
1.2 连续系统ADP算法

在2002年,Murray等[22]提出了一种连续非线性系统迭代ADP算法,并对系统稳定性与性能指标函数收敛性进行了分析。Lee等[23] 首次针对连续非线性系统,提出了策略迭代算法,并证明此算法可得到HJB方程最优解。Song等[24]针对连续非线性系统中的非零和微分对策问题,提出了离线策略积分强化学习算法,并证明了系统的渐近稳定性。

1.2.1 系统描述

本文以非仿射系统为例,连续时间非线性系统为

$ \dot {\boldsymbol{x}}(t){\text{ = }}F({\boldsymbol{x}}(t),{\boldsymbol{u}}(t)),{\boldsymbol{x}}(0) = {{\boldsymbol{x}}_0} $ (1)

式中: ${\boldsymbol{x}}(t) \in {{\mathbf{R}}^n}$ 代表状态向量, ${\boldsymbol{u}}(t) \in {{\mathbf{R}}^m}$ 代表控制向量, ${{\boldsymbol{x}}_0}$ 是初始状态且系统可控。无限时间下性能指标函数为

$ V({\boldsymbol{x}}(t)) = \int_t^\infty {L({\boldsymbol{x}}(\tau ),{\boldsymbol{u}}(\tau ))} {\rm{d}}\tau $ (2)

式中: $V({\boldsymbol{x}}(t))$ 是性能指标函数, $L({\boldsymbol{x}}(\tau ),{\boldsymbol{u}}(\tau ))$ 是效用函数。

系统Hamiltonian方程为

$ H({\boldsymbol{x}},{\boldsymbol{u}},\nabla V) = L({\boldsymbol{x}},{\boldsymbol{u}}) + {(\nabla V)^{\rm{T}}}\dot {\boldsymbol{x}} $ (3)

$V({\boldsymbol{x}}(t))$ 满足HJB方程:

$ \mathop {\min }\limits_u H({\boldsymbol{x}},{\boldsymbol{u}},\nabla {V^*}) = 0 $ (4)

最优控制策略为

$ {{\boldsymbol{u}}^*} = \arg \mathop {\min }\limits_u H({\boldsymbol{x}},{\boldsymbol{u}},\nabla {V^*}) $ (5)
1.2.2 迭代过程

策略迭代ADP初始给定容许控制率为 ${u_0}({{\boldsymbol{x}}_k})$ ,对于 $i = 0,1,2, \cdot \cdot \cdot ,$ 根据式(6)得出控制策略 $ {u^{i - 1}} $ 下的性能指标函数 $ {V^i} $ ,并根据式(7)更新最优控制策略 $ {u^i} $ 。策略迭代过程为[25]

$ L({\boldsymbol{x}},{{\boldsymbol{u}}^{i - 1}}) + {(\nabla V)^{i{\rm{T}}}}F({\boldsymbol{x}},{{\boldsymbol{u}}^i}) = 0 $ (6)
$ {{\boldsymbol{u}}^i} = \arg \mathop {\min }\limits_u H({\boldsymbol{x}},{\boldsymbol{u}},\nabla {V^i}) $ (7)
1.3 离散系统ADP算法

Liu及其团队在文献[26]中首次分析了离散非线性系统的策略迭代算法,并给出其收敛性证明。在文献[27]中迭代算法的初始条件进行了松弛,提出了迭代零和ADP 算法,打破初始性能指标为零的限制。刘毅等[28]在此基础上,证明了值迭代算法中,初始性能指标为任意半正定函数时,算法依旧可收敛。Al-Tamimi 等[29]针对离散系统的最优控制问题,提出一种不要求初始稳定控制的贪婪迭代ADP 算法,并证明了算法的收敛性。

1.3.1 系统描述

离散时间非仿射非线性系统为

$ {{\boldsymbol{x}}_{k + 1}}{\text{ = }}F({{\boldsymbol{x}}_k},{{\boldsymbol{u}}_k}),k = 0,1,2,\cdots $ (8)

式中: ${{\boldsymbol{x}}_k} \in {{\mathbf{R}}^n}$ 代表状态向量, ${{\boldsymbol{u}}_k} \in {{\mathbf{R}}^m}$ 代表控制向量。系统 $F({{\boldsymbol{x}}_k},{{\boldsymbol{u}}_k})$ 连续,在原点处系统稳定且可控。在控制序列 $\underline{{\boldsymbol{u}}}_{k}=\left({\boldsymbol{u}}_{k}, {\boldsymbol{u}}_{k+1}, \cdots\right)$ 的控制下,性能指标函数为

$ J({{\boldsymbol{x}}_k},\underline{{\boldsymbol{u}}}_{k}) = \sum\limits_{t = k}^\infty {U({{\boldsymbol{x}}_t},{{\boldsymbol{u}}_t})} $ (9)

式中: $U({{\boldsymbol{x}}_t},{{\boldsymbol{u}}_t})$ 是连续正定的效用函数,优化目标是找容许控制策略 $\underline{{\boldsymbol{u}}}_{k}$ 使性能指标函数(2)最小。令 ${{\boldsymbol{u}}_k} = u({{\boldsymbol{x}}_k}),{\boldsymbol{u}}(0) = 0$

由Bellman最优性原理,最优性能指标函数满足HJB方程:

$\begin{split} {J^*}({{\boldsymbol{x}}_k}){\text{ = }} & \mathop {\min }\limits_{u({{\boldsymbol{x}}_k})} \{ U({{\boldsymbol{x}}_k},u({{\boldsymbol{x}}_k})) + {J^*}({{\boldsymbol{x}}_{k + 1}})\} =\hfill \\ & U({{\boldsymbol{x}}_k},{u^*}({{\boldsymbol{x}}_k})) + {J^*}({{\boldsymbol{x}}_{k + 1}}) \end{split} $ (10)

最优控制策略为

$ {u^*}({{\boldsymbol{x}}_k}){\text{ = arg}}\mathop {\min }\limits_{u({{x}_k})} \{ U({{\boldsymbol{x}}_k},u({{\boldsymbol{x}}_k})) + {J^*}({{\boldsymbol{x}}_{k + 1}})\} $ (11)
1.3.2 迭代过程

策略迭代和值迭代公式如式(12)~(15)所示,其中策略迭代初始值为稳定的控制策略,值迭代初始值为任意正定函数。

(1) 策略迭代:

$ {J_i}({{\boldsymbol{x}}_k},{{\boldsymbol{u}}_k}){\text{ = }}U({{\boldsymbol{x}}_k},u({{\boldsymbol{x}}_k})) + {J_i}({{\boldsymbol{x}}_{k + 1}}) $ (12)
$ {{\boldsymbol{u}}_{i + 1}}({{\boldsymbol{x}}_k}){\text{ = arg }}\mathop {\min }\limits_{{{\boldsymbol{u}}_k}} \{ U({{\boldsymbol{x}}_k},u({{\boldsymbol{x}}_k})) + {J_i}({{\boldsymbol{x}}_{k + 1}})\} $ (13)

(2) 值迭代:

$ {u_i}({{\boldsymbol{x}}_k}){\text{ = arg}}\mathop {\min }\limits_{u({{\boldsymbol{x}}_k})} \{ U({{\boldsymbol{x}}_k},u({{\boldsymbol{x}}_k})) + {J_i}({{\boldsymbol{x}}_{k + 1}})\} $ (14)
$ {J_{i + 1}}({{\boldsymbol{x}}_k}){\text{ = }}\mathop {\min }\limits_{u({{\boldsymbol{x}}_k})} \{ U({{\boldsymbol{x}}_k},u({{\boldsymbol{x}}_k})) + {J_i}({{\boldsymbol{x}}_{k + 1}})\} $ (15)
2 ADP在微网能量管理系统中的研究现状

ADP算法凭借其在求解非线性最优控制方面的强大优势,在EMS优化运行控制方面受到广泛的关注。本文就ADP算法在连续时间与离散时间能量管理系统中的应用分别进行了介绍,并按优化目标分为发电侧优化控制和用电侧优化控制,按算法实现方式分为在线优化和离线优化。

2.1 连续时间能量管理系统 2.1.1 发电侧优化控制

(1) 在线优化:文献[30]提出了一种适用于非线性连续系统优化问题的ADP算法。该算法通过交替迭代算法求解,实现了涡扇发动机的最优跟踪控制。文献[31]提出一种基于内模原理的测量−反馈自适应在线最优控制算法,应用于发电机的频率控制,且该算法具有可靠的抗干扰和跟踪能力。

(2) 离线优化:文献[32]提出一种自适应最优输出反馈控制算法,应用于孤岛微电网发动机的初级频率控制,并证明了算法的收敛性以及闭环系统的稳定性。

2.1.2 用电侧优化控制

(1) 在线优化:文献[33]提出一种基于随机ADP算法的插电式混合动力电动公交车能源管理方法,该算法加入自适应因子,利用值迭代算法进行实时控制。

(2) 离线优化:文献[34]将ADP算法应用于配电系统的电力交易策略优化问题中。分析每个消费者及市场信息,结合市场趋势、剩余发电量等信息,利用ADP算法得出消费者的最优策略。

2.2 离散时间能量管理系统 2.2.1 发电侧优化控制

(1) 在线优化:文献[35]针对含未知不确定性和外部干扰的高速永磁同步电机驱动系统,提出了一种基于HDP算法的超扭曲滑模控制器,实现电机驱动系统的鲁棒性。

(2) 离线优化:文献[36]利用DHP算法用于多涡轮发电机的电力系统。从而取代传统的自动电压调节器和涡轮调速器,实现电压调节以及增强电力系统稳定性。

2.2.2 用电侧优化控制

(1) 在线优化:文献[37]引入了闭环反馈的概念,提出了一种基于ADP算法的分布式微电网能量实时管理系统。该算法采用神经网络建模并通过在线调节神经网络权值算法,通过仿真验证了所提能量管理系统有助于引导柔性负荷消费者改变能源消费习惯,从而减少化石能源发电量。

(2) 离线优化:文献[38]提出一种混合迭代ADP算法来解决智能住宅能量管理系统中的电池控制问题。实现了每个周期内电力成本最小的优化目标并证明了迭代值函数是单调不增的且收敛的。文献[39]提出了一种从用户需求和环境中自学习的家庭能量管理算法,此算法利用多层前馈神经网络作为函数逼近的一种手段。通过优化管理电池充放电功率,从而最大限度地降低住宅在调度期间的电力成本,给用户带来经济利益。

3 RT-ADP及其应用的可行性 3.1 RT-ADP的提出

由于大量具有随机性、不确定性和非线性的分布式电源、分布式储能和各类型负荷的接入,使EMS成为一个具有实时性的高维复杂非线性随机系统。传统的优化方法如线性规划等本质上属于静态规划,即必须在获得系统特征后进行离线运行获得最优解。而实时EMS应具有时间约束、可预测性、可靠性、交互作用、复杂性等特性。因此在分布式可再生能源渗透率不断提高、负荷日益多样化、用户电能质量要求越来越高的情况下,传统静态优化方法越来越不能满足EMS的优化需求。如何通过实时控制实现双碳目标及电网安全稳定运行,已经成为EMS的研究热点与难点[40]

EMS中新能源发电及负荷用电具有多变性、不确定性,实时EMS要求系统能在外部环境发生变化时,在规定时间内进行相应的控制。由于ADP算法具有很好的在线优化能力,且可以通过系统输入输出数据自适应调整控制策略,从而实现在线控制。因此有众多学者对ADP进行改进,提出了实时自适应动态规划(Real-time Adaptive Dynamic Programming, RT-ADP)算法,从而实现EMS的实时控制且获得了一定的研究成果[41-42]

3.2 RT-ADP可行性及其应用

实时EMS要求系统有足够强的处理能力对变化的实时数据做出反应,即RT-ADP算法应具备实收敛性和实时性。对于非线性RT-EMS其关键在于合理选择性能指标函数逼近结构,且恰当的网络设计也有助于提高收敛速度。为此专家学者们对RT-ADP分别从性能指标函数逼近结构、迭代策略等方面对RT-ADP算法进行了改进。

3.2.1 性能指标函数逼近方法改进

由于实时控制对时间约束有严格要求,函数结构的选择直接影响RT-ADP算法的实时性能。

RT-ADP算法利用不同函数结构去近似性能指标函数,如查表法、分段线性函数逼近、神经网络逼近等。文献[43]提出一种基于Galerkin的性能指标逼近方法,实现EMS日内实时调度。该方法直接利用Galerkin方法而非传统迭代算法去近似性能指标函数,从而节约了迭代时间。文献[44]将EMS优化问题转为随机混合整数非线性规划问题,利用查表近似法实现不确定性条件下的EMS实时管理,并利用贝尔曼方程递归求解。文献[45]选择三层径向基神经网络逼近性能指标函数,且为提高算法计算速度,通过基于K-means的时序差分方法在线更新神经网络权值。

除了非线性之外,分布式可再生能源和需求侧带来的不确定性也使得微电网的实时调度更具挑战性。文献[46]通过增广项重新构造的性能指标函数,使其成为新系统,但这种方法对系统进行了简化,降低控制准确性。模型预测控制也有助于EMS处理系统不确定性,并在规定时间内对系统变化做出反应。文献[47]引入模型预测控制,提出了一种感应电机实时驱动算法。该算法通过对电机转矩实时控制来提高能源效率。文献[48]考虑了可再生能源和有功/无功功率负载的不确定性,利用模型预测控制处理系统不确定性,并使用分段线性函数结构近似性能指标函数,在通过求解贝尔曼方程实现微网运行成本最小化的模板。模型预测控制的优越性已得到公认,但其优化性能过于依赖实时预测信息的准确性。

于是有学者提出使用核方法来逼近RT-ADP算法中的性能指标函数。核方法的主要思想是在希尔伯特空间中构造性能指标函数的非线性映射,通过核技巧将其线性化。经证明,核方法可有效提高RT-ADP算法的非线性逼近能力和泛化能力。

3.2.2 算法改进

1) 在非线性EMS中,在线迭代算法可以解决模型不确定这一问题。RT-ADP可以在线调整网络权值,使控制策略自适应调节,这也意味着计算量的增大。因此强大的迭代算法可有效提高RT-ADP收敛速度,迭代算法及其初始值的选择对RT-ADP而言至关重要。

WANG及其团队通过构建评价网络和执行网络,设计权值更新律,并利用策略迭代算法实现在线控制,且通过Lyapunov 定理,证明这种在线自适应方法权值的收敛性和系统的一致最终有界稳定[49]。在这种方法下,初始控制策略的稳定性对迭代过程的计算量及输出控制策略的收敛性有很大影响。

为松弛控制策略初始条件,Xu及其团队通过将核方法集成到ADP的CN中,提出了一种具有核的RT-ADP算法。该算法采用基于近似线性的稀疏化方法及基于核的最小二乘策略迭代算法,对AN的控制策略进行迭代求解。并对算法的性能进行了理论分析和实验证明,结果表明基于核的RT-ADP算法具有更强的表征学习和泛化能力[50]。文献[51]将Backstepping 技术与ADP相结合,提出一种新的RT-ADP控制方法。先通过Backstepping 技术将Lyapunov 函数转换为仿射形式,再通过ADP算法近似性能指标函数。此方法利用Backstepping 技术的反推优势,构造了严格反馈系统下的Lyapunov函数控制器,且通过设计合适的观测器引入最优输出反馈控制。由Backstepping技术构造的控制器不需要稳定的初始控制策略,也有效地减少RT-ADP算法的计算量。

Lewis及其团队提出实时自适应动态规划算法,即通过神经网络建模并在线调节神经网络权值算法,同时同步更新策略迭代算法,从而实现实时获得最优控制的工作设想[52]。但受神经网络自身限制,此算法在计算速度、收敛性等方面还存在一定缺陷。

2) 应用实例。

文献[53]中作者针对智能电网时变EMS优化问题,提出了一种基于多神经网络融合预测技术的多时间尺度RT-ADP算法。该算法在日前、日内、实时三个时间尺度上实现了新能源利用率最大化。并在环仿真平台来验证所提出的RT-ADP的有效性。该算法利用模糊聚类算法将负荷分为工业负荷、商业负荷和居民负荷。然后基于分类结果,融合温度、日期类型等不同因素,利用多神经网络融合预测算法预测各负荷的用电量和新能源的发电量。在此基础上,该作者提出了一种如图3所示的多时间尺度RT-ADP优化算法。

图 3 基于多神经网络预测技术的RT-ADP算法结构图 Figure 3 Structure diagram of RT-ADP algorithm based on multi-neural network prediction technology

(1) 多时间尺度EMS描述为

$ {{\boldsymbol{x}}_{\tau (k + 1)}} = f({{\boldsymbol{x}}_{\tau k}},{{\boldsymbol{u}}_{\tau k}}),k = 0,1,2,\cdots $ (16)

式中: ${{\boldsymbol{x}}_{\tau k}}{\text{ = }}{{\boldsymbol{P}}_{{\text{PV}},\tau k}} - {{\boldsymbol{P}}_{{\text{R}},\tau k}} - {{\boldsymbol{P}}_{{\text{I}},\tau k}} - {{\boldsymbol{P}}_{{\text{C}},\tau k}}$ ${{\boldsymbol{P}}_{{\text{PV}},\tau k}}$ 代表光伏发电功率, ${{\boldsymbol{P}}_{{\text{R}},\tau k}}$ 代表居民负荷用电功率, ${{\boldsymbol{P}}_{{\text{I}},\tau k}}$ 代表工业负荷用电功率, ${{\boldsymbol{P}}_{{\text{C}},\tau k}}$ 代表商业负荷用电功率, ${{\boldsymbol{u}}_{\tau k}}$ 是蓄电池充放电功率;时间尺度 $\tau $ 为1、60、1440,分别代表实时、日内和日前3个尺度。

优化目标为提高新能源利用率,性能指标函数为

$ J({{\boldsymbol{x}}_{\tau k}},{{\boldsymbol{u}}_{\tau k}}) = \sum\limits_{t = k}^\infty {{\gamma ^t}U({{\boldsymbol{x}}_{\tau t}},{{\boldsymbol{u}}_{\tau t}})} $ (17)

式中: $\gamma $ 是折扣因子。根据贝尔曼最优性原理,性能指标函数满足HJB方程:

$ \begin{split} & {J^{\text{*}}}({{\boldsymbol{x}}_{\tau k}}) = \mathop {\min }\limits_{u({{\boldsymbol{x}}_{\tau k}})} \{ U({{\boldsymbol{x}}_{\tau k}},u({{\boldsymbol{x}}_{\tau k}})) + {J^{\text{*}}}({{\boldsymbol{x}}_{\tau (k + 1)}})\} , =\hfill \\ & \begin{array}{*{20}{c}} {U({{\boldsymbol{x}}_{\tau k}},{u^*}({{\boldsymbol{x}}_{\tau k}})) + {J^{\text{*}}}({{\boldsymbol{x}}_{\tau (k + 1)}})} \end{array} \hfill \\ \end{split} $ (18)

式中:

$ {u^*}({{\boldsymbol{x}}_{\tau k}}) = \arg \mathop {\min }\limits_{u({{\boldsymbol{x}}_{\tau k}})} \{ U({{\boldsymbol{x}}_{\tau k}},u({{\boldsymbol{x}}_{\tau k}})) + {J^{\text{*}}}({{\boldsymbol{x}}_{\tau (k + 1)}})\} $ (19)

(2) 迭代过程。

该算法值迭代具体过程如下:

$ {J^{\text{*}}}({{\boldsymbol{x}}_{\tau k}}){\text{ = }}\varphi ({{\boldsymbol{x}}_{\tau k}}) $ (20)

式中: $\varphi ({{\boldsymbol{x}}_{\tau k}})$ 是任意半正定函数。迭代控制策略 ${u^{\text{*}}}({{\boldsymbol{x}}_{\tau k}})$ 由式(19)得出

$ u_0^*({{\boldsymbol{x}}_{\tau k}}) = \arg \mathop {\min }\limits_{{{\boldsymbol{u}}_{\tau k}}} \{ U({{\boldsymbol{x}}_{\tau k}},{\boldsymbol{u}}_{\tau k}^*) + J_0^*({{\boldsymbol{x}}_{\tau (k + 1)}})\} $ (21)

式中: $J_0^*({{\boldsymbol{x}}_{\tau (k + 1)}}){\text{ = }}\varphi ({{\boldsymbol{x}}_{\tau (k + 1)}})$ ,近似最优性能指标函数为

$ J_1^*({{\boldsymbol{x}}_{\tau k}}) = U({{\boldsymbol{x}}_{\tau k}},{\boldsymbol{u}}_{\tau k}^*) + J_0^*({{\boldsymbol{x}}_{\tau (k + 1)}}) $ (22)

对于任意 $ i = 1,2,\cdots, $ 由值迭代公式(18)和(19)可得

$ u_i^*({{\boldsymbol{x}}_{\tau k}}) = \arg \mathop {\min }\limits_{{{\boldsymbol{u}}_{\tau k}}} \{ U({{\boldsymbol{x}}_{\tau k}},{\boldsymbol{u}}_{\tau k}^*) + J_i^*({{\boldsymbol{x}}_{\tau (k + 1)}})\} $ (23)
$ J_{i + 1}^*({{\boldsymbol{x}}_{\tau k}}) = \mathop {\min }\limits_{{{\boldsymbol{u}}_{\tau k}}} {\text{\{ }}U({{\boldsymbol{x}}_{\tau k}},{\boldsymbol{u}}_{\tau k}^*) + J_i^*({{\boldsymbol{x}}_{\tau (k + 1)}}){\text{\} }} $ (24)

经迭代RT-ADP算法可得出近似最优控制策略,且作者在文献[53]中给出了该算法的收敛性证明。

(3) 硬件在环仿真结果。

为验证所提出基于多神经网络预测技术的RT-ADP算法的有效性,作者在环仿真平台中进行了仿真验证。环仿真平台如图4所示。其中控制器为dSPACE,电网模型在OPAL-RT设备中搭建,结果可在KEYSIGHT示波器中读取。

图 4 硬件在环仿真平台 Figure 4 Hardware-in-the-loop platform

图5为不同时间尺度时RT-ADP控制下光伏发电利用率。由结果可知,在实时、日内、日前3个时间尺度中RT-ADP算法控制下光伏发电消耗功率均高于传统ADP算法。从以上分析可以看出,RT-ADP 算法具有非常重要的理论与现实意义,在EMS研究中还处于起步阶段,拥有巨大的应用前景。

图 5 RT-ADP控制下光伏发电利用率 Figure 5 Photovoltaic power utilization under RT-ADP control
4 讨论与展望

ADP算法在EMS优化控制问题方面具有强大优势,但还存在一些不足之处。

(1) 函数逼近器选择问题。目前ADP算法有神经网络、线性基函数、分段线性函数和支持向量机等多种函数逼近结构,如何合理选择函数逼近器或改善神经网络经验法和试错法设计缺陷是十分有必要的。

(2) 多种信息融合问题。EMS是个复杂非线性系统,且优化策略受多种因素影响。融合这些影响因素,可有效提高EMS控制策略精度和优化效果。因此,研究ADP信息融合问题将是一个十分有益的探索。

(3) 有限时间ADP优化问题。目前ADP算法大部分都是基于无限时间的最优控制,但在EMS实时控制中,需要在一定时间内进行响应,所以有限时间ADP 控制问题的研究具有重要意义。

(4) ADP算法的实时性问题。如何设计出收敛速度快、稳定性好的ADP在线算法,提高算法实时性仍然是一个难点。

(5) ADP算法抗干扰问题。由于EMS存在许多不确定因素,且会影响算法收敛性,因此如何处理不确定项、提高算法抗干扰能力是目前研究重点。

(6) 缺少硬件试验。目前ADP算法在EMS应用中大部分仍使用模拟仿真方法验证,缺少真实环境下的试验环节。

5 结论

间歇性新能源和智能化负载使EMS成为了具有实时性、波动性、复杂性的高维非线性系统。ADP在解决动态系统优化问题方面具有强大优势。本文着重介绍了ADP算法的研究进展及其在EMS领域的应用,分析了该算法在离散能量管理系统和连续能量管理系统的研究现状和算法实现方式,并按优化目标分为发电侧优化控制和用电侧优化控制,按算法实现方式分为在线优化和离线优化。目前ADP算法在EMS的研究仅仅处于初始阶段,在EMS领域具有极大的发展前景。

参考文献
[1]
康重庆. 能源互联网促进实现“双碳”目标[J]. 全球能源互联网, 2021, 4(3): 205-206.
KANG C Q. Energy internet promotes "dual carbon" goal[J]. Global Energy Internet, 2021, 4(3): 205-206.
[2]
白建华, 辛颂旭, 刘俊, 等. 中国实现髙比例可再生能源发展路径研究[J]. 中国电机工程学报, 2015, 35(14): 284-287.
BAI J H, XIN S X, LIU J, et al. Research on the development path of renewable energy in China[J]. China Electric Machinery Journal of engineering, 2015, 35(14): 284-287.
[3]
MARIANO-HERNÁNDEZ D, HERNÁNDEZ-CALLEJO L, et al. A review of strategies for building energy management system: model predictive control, demand side management, optimization, and fault detect diagnosis[J]. Journal of Building Engineering, 2021, 33(1): 352-371.
[4]
WERBOS P J. Computational intelligence for the smart grid-history, challenges, and opportunities[J]. IEEE Computational Intelligence Magazine, 2011, 6(3): 14-21. DOI: 10.1109/MCI.2011.941587.
[5]
LIU D, XUE S, ZHAO B, LUO B, et al. Adaptive dynamic programming for control: a survey and recent advances[J]. IEEE Transactions on Systems, Man, and Cybernetics:Systems, 2021, 51(1): 142-160. DOI: 10.1109/TSMC.2020.3042876.
[6]
陈辞, 谢立华. 具有指定收敛速度的离散系统鲁棒跟踪数据驱动设计[J]. 广东工业大学学报, 2021, 38(6): 29-34.
CHEN C, XIE L H. A data-driven prescribed convergence rate design for robust tracking of discrete-time systems[J]. Journal of Guangdong University of Technology, 2021, 38(6): 29-34. DOI: 10.12052/gdutxb.210105.
[7]
BOARO M, FUSELLI D, ANGELIS F D, et al. Adaptive dynamic programming algorithm for renewable energy scheduling and battery management[J]. Cognitive Computation, 2013, 5(2): 264-277. DOI: 10.1007/s12559-012-9191-y.
[8]
WEI Q, LIU D, SHI G. A novel dual iterative Q-learning method for optimal battery management in smart residential environments[J]. IEEE Transactions on Industrial Electronics, 2015, 62(4): 2509-2518. DOI: 10.1109/TIE.2014.2361485.
[9]
WANG D, LIU D, WEI Q L, et al. Optimal control of unknown nonaffine nonlinear discrete-time systems based on adaptive dynamic programming[J]. Automatica, 2012, 48(8): 1825-1832. DOI: 10.1016/j.automatica.2012.05.049.
[10]
LU Z X, LI H B, QIAO Y. Power system flexibility planning and challenges with high proportion of renewable energy[J]. Power System automation, 2016, 40(13): 147-158.
[11]
KONG L H, HE W, YANG C G, et al. Robust neuro-optimal control for a robot via adaptive dynamic programming[J]. IEEE Transactions on Neural Networks and Learning Systems, 2020, 32(6): 2584-2594.
[12]
FERRARI S, SARANGAPANI J, LEWIS F L. Special issue on approximate dynamic programming and reinforcement learning[J]. Journal of Control Theory and Applications, 2011, 9(3): 309. DOI: 10.1007/s11768-011-1104-1.
[13]
WANG D, LIU D R. Neuro-optimal control for a class of unknown nonlinear dynamic systems using SN-DHP technique[J]. Neurocomputing, 2013, 121(1): 218-225.
[14]
NI Z, HE H B, WEN J Y, et al. Goal representation heuristic dynamic programming on maze navigation[J]. IEEE Transactions on Neural Networks and Learning Systems, 2013, 24(12): 2038-2050. DOI: 10.1109/TNNLS.2013.2271454.
[15]
LIU D R, WANG D, ZHAO D B, et al. Neural-network-based optimal control for a class of unknown discrete-time nonlinear systems using globalized dual heuristic programming[J]. IEEE Transactions on Automation Science and Engineering, 2012, 9(3): 628-634. DOI: 10.1109/TASE.2012.2198057.
[16]
HE H B, NI Z, FU J. A three-network architecture for on-line learning and optimization based on adaptive dynamic programming[J]. Neurocomputing, 2012, 78(1): 3-13. DOI: 10.1016/j.neucom.2011.05.031.
[17]
XU X, HOU Z S, LIAN C Q, et al. Online learning control using adaptive critic designs with sparse kernel machines[J]. IEEE Transactions on Neural Networks and Learning Systems, 2013, 24(5): 762-775. DOI: 10.1109/TNNLS.2012.2236354.
[18]
宋浩楠, 赵刚, 孙若莹. 基于深度强化学习的知识推理研究进展综述[J]. 计算机工程与应用, 2022, 58(1): 12-25.
SONG H N, ZHAO G, SUN R Y. Developments of knowledge reasoning based on deep reinforcement learning[J]. Computer Engineering and Applications, 2022, 58(1): 12-25. DOI: 10.3778/j.issn.1002-8331.2108-0052.
[19]
XU X, HU D, LU X. Kernel-Based least squares policy iteration for reinforcement learning[J]. IEEE Transactions on Neural Networks, 2007, 18(4): 973-992. DOI: 10.1109/TNN.2007.899161.
[20]
XU X, YANG H, et al. Self-Learning control using dual heuristic programming with global laplacian eigenmaps[J]. IEEE Transactions on Industrial Electronics, 2017, 64(12): 9517-9526. DOI: 10.1109/TIE.2017.2708002.
[21]
刘毅, 章云. 一种基于自适应动态规划的协同优化算法[J]. 广东工业大学学报, 2017, 34(6): 15-19.
LIU Y, ZHANG Y. A cooperative optimization algorithm based on adaptive dynamic programming[J]. Journal of Guangdong University of Technology, 2017, 34(6): 15-19. DOI: 10.12052/gdutxb.170082.
[22]
MURRAY J J, COXC C J, LENDARIS G G, et al. Adaptive dynamic programming[J]. IEEE Transactions on Systems, Man, and Cybernetics, Part C (Applications and Reviews), 2002, 32(2): 140-153. DOI: 10.1109/TSMCC.2002.801727.
[23]
LEE J Y, PARK J B, CHOI Y H. On integral generalized policy iteration for continuous-time linear quadratic regulations[J]. Automatica, 2014, 50(2): 475-489. DOI: 10.1016/j.automatica.2013.12.009.
[24]
LEWIS F L, WEI Q L. Off-policy integral reinforcement learning method to solve nonlinear continuous-time multiplayer nonzero-sum games[J]. IEEE Transactions on Neural Networks and Learning Systems, 2016, 28(3): 704-713.
[25]
LIU D R, WEI Q L, WANG D, et al. Adaptive dynamic programming with applications in optimal control[M]. Cham, Switzerland: Springer, 2017.
[26]
LIU D R, WEI Q L. Policy iteration adaptive dynamic programming algorithm for discrete-time nonlinear systems[J]. IEEE Transactions on Neural Networks and Learning Systems, 2013, 25(3): 621-634.
[27]
WEI Q L, LIU D R, LIN Q, et al. Adaptive dynamic programming for discrete-time zero-sum games[J]. IEEE Transactions on Neural Networks and Learning Systems, 2017, 29(4): 957-969.
[28]
刘毅, 章云. 基于值迭代的自适应动态规划的收敛条件[J]. 广东工业大学学报, 2017, 34(5): 10-14.
LIU Y, ZHANG Y. Convergence condition of value-iteration based adaptive dynamic programming[J]. Journal of Guangdong University of Technology, 2017, 34(5): 10-14. DOI: 10.12052/gdutxb.170081.
[29]
AL-TAMIMI A, LEWIS F L, ABU-KHALAF M. Discrete-time nonlinear HJB solution using approximate dynamic programming: Convergence proof[J]. IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics), 2008, 38(4): 943-949. DOI: 10.1109/TSMCB.2008.926614.
[30]
SUN T, SUN X M. An adaptive dynamic programming scheme for nonlinear optimal control with unknown dynamics and its application to turbofan engines[J]. IEEE Transactions on Industrial Informatics, 2020, 17(1): 367-376.
[31]
WU N, WANG H L. Deep learning adaptive dynamic programming for real time energy management and control strategy of micro-grid[J]. Journal of Cleaner Production, 2018, 204(1): 1169-1177.
[32]
DAVARI M, GAO W N, JIANG Z P, et al. An optimal primary frequency control based on adaptive dynamic programming for islanded modernized microgrids[J]. IEEE Transactions on Automation Science and Engineering, 2020, 18(3): 1109-1121.
[33]
LI L, YAN B J, YANG C, et al. Application-oriented stochastic energy management for plug-in hybrid electric bus with AMT[J]. IEEE Transactions on Vehicular Technology, 2015, 65(6): 4459-4470.
[34]
LIANG J K, TANG W Y. Optimal trading strategies in continuous double auctions for transactive energy[C]//2019 North American Power Symposium (NAPS). Wichita, KS, USA : IEEE, 2019.
[35]
林小峰, 丁强. 基于评价网络近似误差的自适应动态规划优化控制[J]. 控制与决策, 2015, 30(3): 495-499.
LIN X F, DING Q. Adaptive dynamic programming optimal control based on approximation error of critic network[J]. Control and Decision., 2015, 30(3): 495-499. DOI: 10.13195/j.kzyjc.2014.0102.
[36]
MARINONI M, BUTTAZZO G. Adaptive DVS management through elastic scheduling[C]//2005 IEEE Conference on Emerging Technologies and Factory Automation. Catania, Italy: IEEE, 2005.
[37]
WEI Q L, LIU D R, LEWIS F L, et al. Mixed iterative adaptive dynamic programming for optimal battery energy control in smart residential microgrids[J]. IEEE Transactions on Industrial Electronics, 2017, 64(5): 4110-4120. DOI: 10.1109/TIE.2017.2650872.
[38]
ZHU Y, ZHAO D, LI X. Iterative adaptive dynamic programming for solving unknown nonlinear zero-sum game based on online data[J]. IEEE Transactions on Neural Networks and Learning Systems, 2017, 28(3): 714-725. DOI: 10.1109/TNNLS.2016.2561300.
[39]
ZHU J, HOU Y J, LI H. Optimal control of nonlinear systems with time delays: an online ADP perspective[J]. IEEE Access, 2019, 7(1): 145574-145581.
[40]
HUANG M, JIANG Z P, et al. Learning-Based adaptive optimal control for connected vehicles in mixed traffic: robustness to driver reaction time[J]. IEEE Transactions on Cybernetics, 2022, 52(6): 267-5277.
[41]
LEWIS F L, SONG R Z, WEI Q L, et al. Multiple actor-critic structures for continuous-time optimal control using input-output data[J]. IEEE Transactions on Neural Networks and Learning Systems, 2015, 26(4): 851-865. DOI: 10.1109/TNNLS.2015.2399020.
[42]
KWON S, XU Y J, GAUTAM N. Meeting inelastic demand in systems with storage and renewable sources[J]. IEEE Transactions on Smart Grid, 2015, 8(4): 1619-1629.
[43]
ZHU J Q, CHEN J J, ZHUO Y L, et al. Stochastic energy management of active distribution network based on improved approximate dynamic programming[J]. IEEE Transactions on Smart Grid, 2021, 13(1): 406-416.
[44]
SHUAI H, FANG J K, AI X M, et al. Optimal real-time operation strategy for microgrid: an ADP-based stochastic nonlinear optimization approach[J]. IEEE Transactions on Sustainable Energy, 2018, 10(2): 931-942.
[45]
LI W M, XU G Q, XU Y S. Online learning control for hybrid electric vehicle[J]. Chinese Journal of Mechanical Engineering, 2012, 25(1): 98-106. DOI: 10.3901/CJME.2012.01.098.
[46]
DE KEYSER A, VANSOMPEL H, CREVECOEUR G. Real-time energy-efficient actuation of induction motor drives using approximate dynamic programming[J]. IEEE Transactions on Industrial Electronics, 2020, 68(12): 11837-11846.
[47]
LI Z M, WU L, XU Y, et al. Multi-stage real-time operation of a multi-energy microgrid with electrical and thermal energy storage assets: a data-driven mpc-adp approach[J]. IEEE Transactions on Smart Grid, 2021, 13(1): 213-226.
[48]
XU X, LIAN C Q, ZUO L, et al. Kernel-based approximate dynamic programming for real-time online learning control: an experimental study[J]. IEEE Transactions on Control Systems Technology, 2013, 22(1): 146-156.
[49]
WANG D, LIU D R, LI H L. Policy iteration algorithm for online design of robust control for a class of continuous-time nonlinear systems[J]. IEEE Transactions on Automation Science and Engineering, 2014, 11(2): 627-632. DOI: 10.1109/TASE.2013.2296206.
[50]
LIU J, HUANG Z, XU X, et al. Multi-kernel online reinforcement learning for path tracking control of intelligent vehicles[J]. IEEE Transactions on Systems, Man, and Cybernetics:Systems, 2021, 51(11): 6962-6975. DOI: 10.1109/TSMC.2020.2966631.
[51]
WANG Z, LIU X P, LIU K F, et al. Backstepping-based lyapunov function construction using approximate dynamic programming and sum of square techniques[J]. IEEE Transactions on Cybernetics, 2016, 47(10): 3393-3403.
[52]
LEWIS F L, VRABIE D, VAMVOUDAKIS K G. Reinforcement learning and feedback control: Using natural decision methods to design optimal adaptive controllers[J]. IEEE Control Systems Magazine, 2012, 32(6): 76-105. DOI: 10.1109/MCS.2012.2214134.
[53]
YUAN J, SAMSON S Y, ZHANG G D, et al. Design and HIL realization of an online adaptive dynamic programming approach for real-time economic operations of household energy systems[J]. IEEE Transactions on Smart Grid, 2021, 13(1): 330-341.