技术领域
本发明属于大气污染防治领域,具体涉及一种基于kriging代理模型的大气污染管控方案优化方法。
背景技术
现有的在区域大气污染管控的政策调控方案优选主要基于两种方法:一是列出能反映政策效果的方程式,通过数学优化的方式进行求解;二是通过设置不同情景,进行政策模拟,然后选择较优的政策。但是这两类方法存在几个缺点:
其一,基于数学优化的方法受限于数学表达式的具体形式,不能准确的反应经济关联、污染物关联、经济社会系统的动态演化等。将产业关联、区域关联、经济-环境双赢、多污染物等纳入政策优选的前提时,数学模型很难满足要求。
其二,情景对比的方法在政策很多、政策相关的变量取值范围很大的时候效率很低,特别是面对可以连续取值的政策变量时,情景的设计非常困难,政策优选效率低下。
综上,环境政策的作用过程是一个极其复杂的带有随机因素的系统,需要系统地分析研究环境政策作用过程中的各方面因素,协调各政策之间的相互关系,使得环境政策调控方案更加合理,达到环境治理与经济发展双赢的目的。而建立多情景政策仿真模型对这一过程进行分析研究,可以综合考虑多种政策协同、多污染物交互作用,同时实现环境治理政策的多方案预演,但由于多情景集成模型的运行时间较长、计算代价昂贵,采用一般优化算法对政策方案进行优选时效率低下,因此有必要在多情景政策仿真模型的基础上,提出一种仿真优化方法,在海量的政策参数组合中自动进行搜索寻优,降低计算代价,提高优选效率。
kriging模型是基于地质统计学变差函数模型发展起来的空间插值方法,是利用区域化变量的原始数据和变差函数的结构特点,对未采样点的区域化变量的值进行无偏估计的一种方法,适合解决非线性问题,不仅能提供仿真响应的预测值,还能给出预测不确定性的度量(预测标准差),常用作仿真优化中的代理模型。
为此,考虑建立一种基于kriging代理模型的仿真优化方法对大气污染调控政策进行优选。
发明内容
本发明的目的是克服现有技术的缺陷,提供一种基于kriging代理模型的仿真优化方法,对大气污染区域联防联控长期调控政策进行优选。在kriging代理模型基础上,基于期望改进准则不断获取新的采样点,并通过加入新的采样点来不断迭代优化kriging代理模型,使得kriginig代理模型逐渐逼近目标函数系统的真实输入-输出性能,同时采样逐渐逼近最优解区域,最终获得优化的大气污染管控方案并以图像、图表等形式输出出来。
本发明通过以下的技术方案予以实现:
一种大气污染管控方案优化方法,包括:
从现有大气污染管控政策中选取待优化的政策参数,建立大气污染管控政策工具箱;
基于大气污染管控政策工具箱,利用Vensim软件将所述政策工具箱中的政策加入软件中建立政策模块,构造多情景集成模型,用于环境政策的模拟,评估和分析;
随后在python软件中导入所述多情景集成模型,利用python软件建立基于kriging代理模型的仿真优化算法,优化大气污染管控政策方案;随后输出优化后的方案;
其中,步骤“优化大气污染管控方案”进一步包括:
步骤101:确定所述多情景集成模型中待优化的政策参数x
政策参数组合x=(x
步骤102:在所述取值范围内使用拉丁超立方体抽样方法选取初始数量的政策参数组合样本点,运行多情景集成模型进行仿真,得到包括多个政策参数组合x和对应的目标函数值y的初始数据集;其中,政策参数组合x经多情景集成模型进行仿真后,仿真结果为空气污染指标和经济指标等输出指标,对输出指标进行线性加权计算从而得到目标函数值y;其中政策参数组合x和目标函数值y的逻辑关系为目标函数f,优化目标为使得目标函数值y取值最大,所述优化目标包括空气污染指标和经济指标,即:使得环境减排效果最好且对经济的负面影响最小,此时政策实施效果达到环境治理和经济发展的双赢;
步骤103:基于获得的初始数据集建立kriging代理模型;
步骤104:通过粒子群优化算法最大化采集函数,基于期望改进准则在最有可能获得最优解的位置进行采样;
步骤105:在选定的采样点处获取新的政策参数组合x,继续运行多情景集成模型进行仿真,获取其真实目标函数值y并将其加入数据集;
步骤106:基于更新的数据集更新kriging代理模型;
步骤107:重复迭代步骤104-106,不断优化kriging代理模型,直到每次采样获取的政策参数组合x所对应的目标函数值y趋于稳定,即优化收敛。
步骤108:当所述目标函数值y趋于稳定,即认为所述优化目标完成收敛,获得优化的大气污染管控方案。
进一步的,所述政策模块包括产业政策子模块、能源政策子模块、技术政策子模块和经济政策子模块。
与现有技术相比,本发明的优点与积极效果在于:
本发明提出的大气污染管控方案优化方法在多污染物多情景集成模型的基础上,运用基于kriging代理模型的仿真优化方法对环境政策参数组合进行优选,能够在海量的政策组合中自动进行搜索寻优,得到的优选政策效果好于经验设置或简单情景对比得到的政策,降低计算代价,提高优选效率,高效实现全局最优,有利于科学整合、利用区域内各种资源,制定相对最优的政策方案,促进区域内的统筹安排和相互配合,最终达到控制大气污染、改善区域空气质量及保证区域经济发展的目的。
附图说明
图1是本发明所述的大气污染管控方案优化方法的框架图;
图2是本发明所述的大气污染管控方案优化方法中优化步骤的流程图;
图3是本发明所述的大气污染管控方案优化方法中具体优化步骤的框架图。
具体实施方式
为使本发明实施例的目的、技术方案、有益效果及显著进步更加清楚,下面,将结合本发明实施例中所提供的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所有描述的这些实施例仅是本发明的部分实施例,而不是全部的实施例;基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明搭建了基于Python和Vensim数据传输的联合仿真优化方法的框架,利用Vensim强大的图形化能力和构建模型简易而有弹性等优点建立多情景政策集成仿真模型,刻画多种政策协同——多污染物和经济影响之间的响应关系;利用Python强大的数据处理和优化设计能力编写基于kriging代理模型的仿真优化算法,用于综合环境调控方案的优选;利用Python和Vensim的数据接口实现Python仿真优化算法中调用Vensim的多情景集成模型,以实现优势互补的联合优化设计模型;最后判断是否达到优化目标,如未达标,Python利用仿真优化算法获取新的政策参数组合采样点后,传递给Vensim以获取采样点对应的真实目标函数值,并将真实目标函数值返回到Python中,进一步更新kriging代理模型。
如图1-3所示,一种大气污染管控方案优化方法,包括:
收集整理现有的大气污染管控政策,从现有大气污染管控政策中选取待优化的政策参数,建立大气污染管控政策工具箱;
基于大气污染管控政策工具箱,利用Vensim软件将所述政策工具箱中的政策加入软件中建立政策模块,包括产业政策子模块、能源政策子模块、技术政策子模块和经济政策子模块;考虑区域之间的经济关联,构造多情景集成模型,描绘不同政策和多种污染物/经济之间的响应关系;其中构成的情景包括不同的社会、经济、技术发展速度以及不同的大气污染管控政策方案等。
其中所述政策参数表如表1所示。
表1政策参数表
注:政策变量取值为0代表不施行该政策。
在社会、经济、技术发展速度选择的特定情景下实施政策,运用多情景集成模型模拟社会经济的运行状态,得到经济指标和费用指标;同时得到SO
随后在python软件中导入所述多情景集成模型,利用python软件建立基于kriging代理模型的仿真优化算法,优化大气污染管控政策方案;随后输出优化后的方案。具体步骤包括:
S101:确定大气污染管控方案中待优化的政策参数x
其中,
产业政策集={x
能源政策集={x
技术政策集={x
经济政策集={x
政策参数组合x=(x
S102:在所述取值范围内使用拉丁超立方体抽样方法选取初始数量的政策参数组合样本点,向多情景政策仿真模型中输入政策参数组合x,运行多情景集成模型进行仿真,通过模型运行后的输出指标得到目标函数值y,从而得到包括多个政策参数组合x和对应目标函数值y的初始数据集。其中,政策参数组合x经多情景集成模型进行仿真后,仿真结果为空气污染指标和经济指标等输出指标,对输出指标进行线性加权计算从而得到目标函数值y;其中政策参数组合x和目标函数值y的逻辑关系为目标函数f,优化目标为使得目标函数值y取值最大,所述优化目标包括空气污染指标和经济指标,即:使得环境减排效果最好且对经济的负面影响最小,此时政策实施效果达到环境治理和经济发展的双赢。
S103:基于获得的初始数据集建立kriging模型,作为真实目标函数f的代理模型;
kriging将仿真模型的响应y(x)看作是一个包含了回归项的随机过程的实现,即:
式中,f
给定n个试验点X=(x
式中,f(x)=(f
F=(f(x
r(x)=(R(x,x
R=(R(x
h=(f(x)-F
S104:通过粒子群优化算法最大化采集函数,基于期望改进准则在最有可能获得最优解的位置进行采样,即选取最有可能使得环境减排效果最好且经济负面影响最小的政策参数组合为采样点。其中,对于步骤S104中通过最大化采集函数以指导新的采样,进行以下说明:
在确定kriging插值模型为多情景集成模型的代理模型后,需要提供更多真实样本点来对kriging代理模型进一步修正,而通过采样可以实现对真实目标函数系统(多情景政策集成模型)更加精准的描述。所选取的下一个采样点,是基于对前面已知点建立的kriging代理模型以及最大化采集函数而得到的目前为止全局最优解最可能出现的位置,最大化采集函数通过粒子群优化算法实现。
基于期望改进的加点准则,采集函数选择EI(Expected Improvement)函数:
式(5)中,φ为标准正态分布函数,ψ为标准正态分布概率密度函数,f
S105:在选定的位置采样,获取新的政策参数组合x,继续运行多情景集成模型进行仿真得到其真实目标函数值y并将其加入数据集S;
步骤S106:基于更新的数据集S
步骤S107:重复迭代步骤S104-106,不断优化kriging代理模型,直到每次采样获取的政策参数组合x所对应的目标函数值y趋于稳定,即优化收敛。
步骤S108:根据目标函数迭代收敛曲线,随着迭代次数的增加,目标函数值y趋于稳定,即数值在某一范围内小幅波动,此时认为优化收敛;当所述优化目标完成收敛,得到最优目标函数值y
以上各实施例和具体案例仅用以说明本发明的技术方案,而非是对其的限制,尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换,而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围,本领域技术人员根据本说明书内容所做出的非本质改进和调整或者替换,均属本发明所要求保护的范围。
机译: 用还原剂还原至少一种大气污染物氧化剂的方法,处理至少一种大气污染物氧化剂和至少一种大气污染物还原剂的设备以及租用的车辆
机译: 在大气污染保护方案中使用的资源加载系统和方法
机译: 在大气污染保护方案中使用的资源加载系统和方法