-
公开(公告)号:CN119790785A
公开(公告)日:2025-04-11
申请号:CN202411821286.X
申请日:2024-12-11
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种一体式芋头种植机,包括:车架模块,用于支撑和带动一体机行走;挖坑刨铲模块,位于车架模块的前部,用于在待种植区域挖出种坑;下种模块,位于车架模块的中部,包括可开合的植芋杯,用于向种坑送入种芋;施肥模块,位于车架模块中部,用于在植芋杯中送入肥料与驱虫药;浇水模块,位于整机中部,用于浇灌放入种坑中的种芋;覆土覆膜模块,位于整机后部,用于向种坑中铲土以完成种坑覆土覆膜;和/或控制模块,安装于车架模块上并与车架模块、挖坑刨铲模块、下种模块、施肥模块、浇水模块和覆土覆膜模块连接。本发明有益效果是:能自动调控播种、施肥距离,设备速度,实现随时启停,确保种植均匀美观的芋苗,提高种植效率与质量。
-
公开(公告)号:CN119227773A
公开(公告)日:2024-12-31
申请号:CN202411379921.3
申请日:2024-09-30
Applicant: 电子科技大学
IPC: G06N3/092 , G06F18/22 , G06N3/044 , G06N3/0442 , G06N3/0499 , G06N3/047 , G06N3/042 , G06N3/045
Abstract: 本发明公开了一种基于行为体行为特征相似性的多智能体强化学习协作方法,在该模型中,智能体之间的相互作用被建立为一个图神经网络。具体来说,提出了皮尔逊相关系数来计算主体历史轨迹的相似性,用于建模图神经网络中边的权值,作为确定其行为共同认知的一种手段;此外,利用结构化的状态信息互补模块,该模块主要依赖于基于自注意的变压器‑编码器架构,融合了其他智能体的观察和行动,以增强智能体的策略网络的表示能力。该模型有效地增强主体之间的协作行为,提高协同模型的训练效率。
-
公开(公告)号:CN118534919A
公开(公告)日:2024-08-23
申请号:CN202410627707.9
申请日:2024-05-20
Applicant: 电子科技大学
Abstract: 本发明公开了一种基于安全强化学习的无人机集群覆盖控制方法,先使用覆盖能量和覆盖功率概念对任务进行建模;再根据避碰避障和通信连通保持等安全要求设计相应的约束力,以此设计安全防护机制;当发现无人机做出不安全的动作后对其进行矫正,用于在动态覆盖过程中保证无人机飞行安全和通信连通;最后,配合多智能体深度强化学习算法对模型进行训练,在训练完毕后,实际执行的过程中,关闭动作矫正器,从而实现带安全保障的动态覆盖。
-
公开(公告)号:CN119796961A
公开(公告)日:2025-04-11
申请号:CN202411840514.8
申请日:2024-12-13
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种物品分离装置,包括:安装架;固定在所述安装架上且竖直设置的引导管,具有可形变性和回弹性,所述引导管包括设于两端的投入口、输出口以及形成在所述引导管内部的仅限于一个物品通过的引导通道;夹持机构,包括第一驱动组件和一对设置在所述引导管两侧的夹持部件,所述第一驱动组件用于驱使两个所述夹持部件靠近或者远离所述引导管以使所述引导管发生形变或者恢复原形使得位于引导管内最下方的物品相对所述引导管固定或者移动。本发明的有益效果在于,能够实现对多个物体的依次准确分离。
-
公开(公告)号:CN118838367A
公开(公告)日:2024-10-25
申请号:CN202410799461.3
申请日:2024-06-20
Applicant: 电子科技大学
IPC: G05D1/46 , G05D109/20
Abstract: 本发明公开了一种控制饱和约束下的四旋翼吊运系统轨迹控制方法,首先,对四旋翼吊运系统进行建模,并分析系统受到的干扰为之后的控制设计提供支撑;接着,使用一个跟踪微分器对参考轨迹进行平滑处理,从而避免控制饱和的问题;然后,设计基于不确定性与干扰估计器的鲁棒控制方法来有效地消除四旋翼无人机在飞行过程中受到的晃动干扰来实现高精度的轨迹跟踪,最后根据干扰分布频域定量地选择控制器参数来控制四旋翼的运行轨迹,使其达到期望的鲁棒性。
-
公开(公告)号:CN119990245A
公开(公告)日:2025-05-13
申请号:CN202510144491.5
申请日:2025-02-10
Applicant: 电子科技大学
IPC: G06N3/092 , G06N3/0442 , G06N3/045
Abstract: 本发明公开了一种基于价值分解差异的多智能体对比探索方法,该方法利用价值分解的差异和对比原则,根据不同的价值分解估计之间的差异确定更新权重,设置更新权重并将这种差异作为更新过程中的内在目标。MACE架构包含两个值函数估计器,每个值函数估计器都负责估计两种VD方法对应的联合状态动作值函数Qjt和Qtot,利用Qjt和Qtot之间的差异来创建一个隐式奖励函数和加权机制来指导探索,用于更新两个内部函数估计器。这种方法确保了Q值较高的动作优先进行采样,而Q值较小的动作仍然有机会进行采样,增强了探索行为,不仅在学习速度和最终性能上明显优于基线,而且有效保持了完整的表示能力。
-
-
-
-
-