-
公开(公告)号:CN103150475A
公开(公告)日:2013-06-12
申请号:CN201310070511.6
申请日:2013-03-06
Applicant: 清华大学
IPC: G06F19/00
Abstract: 本发明公开了一种聚合物熔融指数的软测量方法,包括:确定第一阶段自适应链接超平面模型、第二阶段静态模型和第三阶段脉冲响应模型;读取并输入操作变量的在线测量值至所述第一阶段自适应链接超平面模型,以获得气体分压的在线实时估计值;将所述气体分压的在线实时估计值输入至所述第二阶段静态模型中,以获得瞬时熔融指数的估计值;将所述瞬时熔融指数的估计值输入至所述第三阶段脉冲响应模型,以获得所述累积熔融指数的估计值。本发明基于机理分析融合数据建模和机理建模的优点,使得模型能够适应过程较大范围内的波动,同时较容易地获得了模型参数,因此适用于聚合反应过程质量指标的在线测量。
-
公开(公告)号:CN102073271B
公开(公告)日:2012-05-16
申请号:CN201110030352.8
申请日:2011-01-27
Applicant: 清华大学
Abstract: 本发明公开了一种延迟焦化装置智能控制方法,包括以下步骤:S1:设置延迟焦化装置智能控制的操作变量和状态标志位的初始值、进料阀位和吹送蒸汽相对量的阈值,所述吹送蒸汽相对量为吹送蒸汽流量与加热炉总进料流量的比值;S2:通过集散控制系统获取当前进料阀位值和当前吹送蒸汽相对量,根据所述当前进料阀位值和当前吹送蒸汽相对量判断出当前需进行的工艺步骤;S3:根据所述工艺步骤对所述操作变量和状态标志位进行相应调整,调整完成后返回步骤S2。本发明实现了延迟焦化装置的智能补偿控制,解决了切换干扰的处理单一、无法实现智能化的有效抑制、以及切换过程中无法进行优化控制的技术问题。
-
公开(公告)号:CN103488083A
公开(公告)日:2014-01-01
申请号:CN201310419142.7
申请日:2013-09-13
Applicant: 清华大学
IPC: G05B13/04
Abstract: 本发明公开了一种聚合物品牌切换的控制方法,包括:获得离线优化轨迹作为系统行为的观测样本集;利用决策树的非参数建模方法基于所述观测样本集建立Q函数的学习模型;基于所述Q函数的学习模型获得最优控制策略并予以实施;收集历史操作轨迹补充到所述观测样本集中,并重复以上步骤,直到停止学习。本发明基于动态批次强化学习的优点,根据观测到的样本数据,借助决策树的建模方法,学习Q函数并从中得到平稳的闭环最优策略。
-
公开(公告)号:CN103150475B
公开(公告)日:2017-03-29
申请号:CN201310070511.6
申请日:2013-03-06
Applicant: 清华大学
IPC: G06F19/00
Abstract: 本发明公开了一种聚合物熔融指数的软测量方法,包括:确定第一阶段自适应链接超平面模型、第二阶段静态模型和第三阶段脉冲响应模型;读取并输入操作变量的在线测量值至所述第一阶段自适应链接超平面模型,以获得气体分压的在线实时估计值;将所述气体分压的在线实时估计值输入至所述第二阶段静态模型中,以获得瞬时熔融指数的估计值;将所述瞬时熔融指数的估计值输入至所述第三阶段脉冲响应模型,以获得所述累积熔融指数的估计值。本发明基于机理分析融合数据建模和机理建模的优点,使得模型能够适应过程较大范围内的波动,同时较容易地获得了模型参数,因此适用于聚合反应过程质量指标的在线测量。
-
公开(公告)号:CN102073271A
公开(公告)日:2011-05-25
申请号:CN201110030352.8
申请日:2011-01-27
Applicant: 清华大学
Abstract: 本发明公开了一种延迟焦化装置智能控制方法,包括以下步骤:S1:设置延迟焦化装置智能控制的操作变量和状态标志位的初始值、进料阀位和吹送蒸汽相对量的阈值,所述吹送蒸汽相对量为吹送蒸汽流量与加热炉总进料流量的比值;S2:通过集散控制系统获取当前进料阀位值和当前吹送蒸汽相对量,根据所述当前进料阀位值和当前吹送蒸汽相对量判断出当前需进行的工艺步骤;S3:根据所述工艺步骤对所述操作变量和状态标志位进行相应调整,调整完成后返回步骤S2。本发明实现了延迟焦化装置的智能补偿控制,解决了切换干扰的处理单一、无法实现智能化的有效抑制、以及切换过程中无法进行优化控制的技术问题。
-
公开(公告)号:CN103488083B
公开(公告)日:2016-03-23
申请号:CN201310419142.7
申请日:2013-09-13
Applicant: 清华大学
IPC: G05B13/04
Abstract: 本发明公开了一种聚合物品牌切换的控制方法,包括:获得离线优化轨迹作为系统行为的观测样本集;利用决策树的非参数建模方法基于所述观测样本集建立Q函数的学习模型;基于所述Q函数的学习模型获得最优控制策略并予以实施;收集历史操作轨迹补充到所述观测样本集中,并重复以上步骤,直到停止学习。本发明基于动态批次强化学习的优点,根据观测到的样本数据,借助决策树的建模方法,学习Q函数并从中得到平稳的闭环最优策略。
-
-
-
-
-