一种结构健康监测的多目标传感器优化布置方法

    公开(公告)号:CN118246309A

    公开(公告)日:2024-06-25

    申请号:CN202311834674.7

    申请日:2023-12-28

    Inventor: 周鹏飞 张雍

    Abstract: 本发明公开了一种结构健康监测的多目标传感器优化布置方法,包括:利用阶段I的高能测点初选算法获取传感器布置点集;根据传感器布置的多目标因素,利用阶段II的改进粒子群算法从传感器布置点集中选出非支配Pareto解;基于非支配Pareto解,通过Topsis熵权法确定传感器布置的最优方案。本发明考虑了传感器布设方案的抗噪性、损伤识别敏感性及冗余性、损伤识别的不适定性、模态独立性等多因素目标,I阶段通过高能测点初选算法初选测点集D,提高传感器布设方案的抗噪性;II阶段通过改进的多目标粒子群优选算法,优化损伤识别敏感性及冗余性等多目标传感器布置方案。

    一种集装箱堆场双场桥动态协同调度方法

    公开(公告)号:CN110363380B

    公开(公告)日:2022-05-10

    申请号:CN201910461435.9

    申请日:2019-05-30

    Inventor: 周鹏飞 张震

    Abstract: 本发明公开了一种集装箱堆场双场桥动态协同调度方法,包括步骤1,利用集装箱堆场作业仿真对设计的Q值表进行模拟学习,获得模拟学习后的Q值表;步骤2,利用学习后的Q值表和动作选择策略动态生成场桥的动作指令,场桥根据动作指令选择任务进行作业,在场桥调度过程中根据箱区作业反馈自适应地更新Q值表。本方法提高堆场堆取箱作业效率,减少双场桥干扰和车辆等待时间。

    一种集装箱区垂直布置的双自动化场桥动态调度方法

    公开(公告)号:CN112434870A

    公开(公告)日:2021-03-02

    申请号:CN202011382363.8

    申请日:2020-12-01

    Inventor: 周鹏飞 高雪峰

    Abstract: 本发明公开了一种集装箱区垂直布置的双自动化场桥动态调度方法,将箱区垂直岸线布置的堆场双自动化场桥的作业调度问题转化为可执行新任务的场桥的任务指派问题,分别针对海、陆侧场桥构建基于深度强化学习的场桥调度智能体。场桥调度Agent的基本思路是:将强化学习与深度学习结合,利用深度学习的深度置信网络代替强化学习的状态‑动作的价值评估表,通过强化学习进行DBN网络的训练学习,将训练后的DBN用于场桥任务的指派。场桥调度Agent可以预先借助堆场作业环境进行交互试错的强化学习,训练后的Agent可根据场桥作业的动态环境状态信息实时生成场桥的任务指派指令,并根据环境反馈更新DBN参数,实现动态环境下的堆场自动化场桥的自适应实时调度。

    一种集装箱区垂直布置的双自动化场桥动态调度方法

    公开(公告)号:CN112434870B

    公开(公告)日:2022-10-11

    申请号:CN202011382363.8

    申请日:2020-12-01

    Inventor: 周鹏飞 高雪峰

    Abstract: 本发明公开了一种集装箱区垂直布置的双自动化场桥动态调度方法,将箱区垂直岸线布置的堆场双自动化场桥的作业调度问题转化为可执行新任务的场桥的任务指派问题,分别针对海、陆侧场桥构建基于深度强化学习的场桥调度智能体。场桥调度Agent的基本思路是:将强化学习与深度学习结合,利用深度学习的深度置信网络代替强化学习的状态‑动作的价值评估表,通过强化学习进行DBN网络的训练学习,将训练后的DBN用于场桥任务的指派。场桥调度Agent可以预先借助堆场作业环境进行交互试错的强化学习,训练后的Agent可根据场桥作业的动态环境状态信息实时生成场桥的任务指派指令,并根据环境反馈更新DBN参数,实现动态环境下的堆场自动化场桥的自适应实时调度。

    一种集装箱堆场双场桥动态协同调度方法

    公开(公告)号:CN110363380A

    公开(公告)日:2019-10-22

    申请号:CN201910461435.9

    申请日:2019-05-30

    Inventor: 周鹏飞 张震

    Abstract: 本发明公开了一种集装箱堆场双场桥动态协同调度方法,包括步骤1,利用集装箱堆场作业仿真对设计的Q值表进行模拟学习,获得模拟学习后的Q值表;步骤2,利用学习后的Q值表和动作选择策略动态生成场桥的动作指令,场桥根据动作指令选择任务进行作业,在场桥调度过程中根据箱区作业反馈自适应地更新Q值表。本方法提高堆场堆取箱作业效率,减少双场桥干扰和车辆等待时间。

    一种港口集疏运车辆动态智能调度方法

    公开(公告)号:CN117132071A

    公开(公告)日:2023-11-28

    申请号:CN202311156657.2

    申请日:2023-09-08

    Abstract: 本发明公开了一种港口集疏运车辆动态智能调度方法,包括:构建车辆任务选择决策单元模型MDP‑VTS,该模型包括车辆指派模型和动态任务分配模型,两模型之间的关系如图2所示;其中车辆指派模型是在任务开始执行前选派将要执行集疏运任务的车辆,动态任务分配模型则是根据车辆当前的任务执行状况以及总体任务信息为车辆实时分配任务;所述车辆任务选择决策单元模型MDP‑VTS的动作任务选择策略通过Res‑D3QN算法求解获得;将求解过程分为学习阶段和应用阶段,所述学习阶段采用多轮增量学习进行Q网络参数的训练更新;所述应用阶段先进行模拟指派优选车辆指派方案,然后进行动态任务分配。本方法能够根据任务和作业环境变化动态制定适应性的车辆智能调度指派方案。

    一种多线路公交车共享充电动态干扰管理方法

    公开(公告)号:CN117057629A

    公开(公告)日:2023-11-14

    申请号:CN202311156725.5

    申请日:2023-09-08

    Inventor: 周鹏飞 张雍

    Abstract: 本发明公开了一种多线路公交车共享充电动态干扰管理方法,包括:构建I阶段多线路公交车共享充电鲁棒调度优化模型和算法;构建II阶段充电干扰恢复模型和算法;所述I阶段多线路公交车共享充电鲁棒调度优化模型提供公交车充电初始计划,若不发生干扰事件,公交车按初始计划进行充电;若干扰事件发生,则以充电初始计划为基础,对后续未执行的充电计划通过II阶段充电干扰恢复模型更新,再按更新后的充电计划分步执行,直至完成车辆全部行程和充电安排。能够对干扰事件进行动态实时响应,减少车辆充电拥堵和充电费用,保障公交持续稳定运行;通过合理安排不同电价时段的车辆充电时间,降低公交车的充电费用。

    一种考虑分时电价的多线路公交车共享充电调度方法

    公开(公告)号:CN116644847A

    公开(公告)日:2023-08-25

    申请号:CN202310590072.5

    申请日:2023-05-24

    Inventor: 周鹏飞 张雍

    Abstract: 本发明公开了一种考虑分时电价的多线路公交车共享充电调度方法,涉及电动公交车充电调度技术领域;包括:构建分时电价多线路电动公交车共享充电调度模型;该模型的目标函数为最小化电动公交车总充电成本,约束条件包括公交线路行程计划、充电桩资源、车辆最小剩余电量等约束;通过改进自适应粒子群算法,对所述分时电价多线路电动公交车共享充电调度模型进行求解。本方法实现多线路公交车计划性共享充电,减少充电拥堵,节约充电资源,保障电动公交的持续稳定运行;优化低谷、平峰和高峰等分时电价下的公交充电时间,降低公交运营成本。

    一种共享模式的集疏运车辆作业动态调度方法

    公开(公告)号:CN116562534A

    公开(公告)日:2023-08-08

    申请号:CN202310236291.3

    申请日:2023-03-13

    Inventor: 周鹏飞 王奋斗

    Abstract: 本发明公开了一种共享模式的集疏运车辆作业动态调度方法,涉及港口集疏运作业技术领域;包括:步骤1,利用不同规模集疏港任务对Q值表进行迭代学习更新,获得学习后的Q值表;步骤2,利用学习后的Q值表模拟车辆指派进而确定实际车辆指派方案,然后动态分配车辆执行的集疏港任务。在学习阶段,Q值表通过车辆执行动作的反馈,获取Q值学习的状态和立即回报信息。在应用阶段,Q值表通过与车辆实际动作指令与反馈交互,获取Q值自适应性学习的状态和立即回报信息。本发明提高车辆的共享利用率和送取箱效率,降低车队作业成本和碳排放,实现动态作业环境下车辆送取箱动态调度,提高车辆调度适应性。

    一种不完全提箱信息下的集装箱堆场翻箱落位优选方法

    公开(公告)号:CN110203708B

    公开(公告)日:2020-04-14

    申请号:CN201910487079.8

    申请日:2019-06-05

    Inventor: 周鹏飞 叶倩倩

    Abstract: 本发明公开了一种不完全提箱信息下的集装箱堆场翻箱落位优选方法,步骤1,利用集装箱堆场提箱作业仿真对设计的Q值表进行模拟学习,获得模拟学习后的Q值表;步骤2,利用学习后的Q值表和动作选择策略动态生成集装箱翻箱落位的动作指令,根据动作指令选择待翻箱的落箱箱位,在堆场提箱作业过程中根据动作指令的执行反馈来自适应地更新Q值表。本方法通过集装箱提箱过程中的Q值学习可实现堆场翻箱作业环境变化的翻箱落位优选指令的自适应调整;提高了Q算法的学习收敛速度,降低了多层堆放集装箱堆场的翻箱率和集装箱堆场二次翻箱率。

Patent Agency Ranking