基于强化学习算法的微电网优化策略

TP18; 分布式能源具有小规模波动和间歇性的特点,导致微电网运行策略难以制定.微电网有效集成多种分布式能源和外部电网,多能源微电网管理正成为一项非常复杂的任务.针对该问题,提出一种在负荷需求、可再生能源和储能设备等综合因素影响下的微电网实时优化运行策略.该策略首先基于强化学习框架,将微电网运行问题建模为马尔可夫决策过程,然后以最小化微电网电压波动和运行损耗为目的构建微电网策略优化模型.为有效利用微电网的互联结构,在近端策略优化算法的基础上,设计一种图注意力近端策略优化算法(graph attention proximal policy optimization,GT-PPO),该算法使用注意...

Full description

Saved in:
Bibliographic Details
Published in山东电力技术 Vol. 51; no. 6; pp. 27 - 35
Main Authors 李子凯, 杨波, 周忠堂, 张健, 徐明珠
Format Journal Article
LanguageChinese
Published 国网山东省电力公司临沂供电公司,山东 临沂 2760001%国网(山东)电动汽车服务有限公司,山东 济南 250000 2024
Subjects
Online AccessGet full text
ISSN1007-9904
DOI10.20097/j.cnki.issn1007-9904.2024.06.004

Cover

More Information
Summary:TP18; 分布式能源具有小规模波动和间歇性的特点,导致微电网运行策略难以制定.微电网有效集成多种分布式能源和外部电网,多能源微电网管理正成为一项非常复杂的任务.针对该问题,提出一种在负荷需求、可再生能源和储能设备等综合因素影响下的微电网实时优化运行策略.该策略首先基于强化学习框架,将微电网运行问题建模为马尔可夫决策过程,然后以最小化微电网电压波动和运行损耗为目的构建微电网策略优化模型.为有效利用微电网的互联结构,在近端策略优化算法的基础上,设计一种图注意力近端策略优化算法(graph attention proximal policy optimization,GT-PPO),该算法使用注意力机制和图神经网络学习微电网节点的相关性,以学习各类环境下不同时段多能源微电网最优调度策略.最后,采用改进的IEEE 33节点、IEEE 118节点两种规格的微电网进行仿真实验.实验结果表明,该优化策略可以实现微电网的实时优化,且结果优于传统的近端策略优化(proximal policy optimization,PPO)算法和双深度Q网络(double deep Q network,DDQN)算法.
ISSN:1007-9904
DOI:10.20097/j.cnki.issn1007-9904.2024.06.004